
Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
## Neobične provale ChatGPT-a: Osjetljivi razgovori završili u Google Analyticsu
### Uvod
U digitalnom dobu u kojem informacije putuju brže nego ikad prije, zaštita privatnosti postaje ključna tema. U zadnje vrijeme, na internetu su se pojavile brojne priče o curenjima osjetljivih podataka, a najnoviji slučaj dolazi iz svijeta umjetne inteligencije. Ovaj članak istražuje neobične provale ChatGPT-a, gdje su osobni i osjetljivi razgovori korisnika završavali u Google Search Consoleu (GSC), alatu koji je prvenstveno namijenjen analizi web prometa. Otkrića su izazvala zabrinutost zbog potencijalnog kršenja privatnosti korisnika i podigla pitanja o tome kako se podaci prikupljaju i koriste.
### Iza kulisa: Kako je došlo do curenja
Od rujna 2023. godine, mnogi korisnici ChatGPT-a su primijetili da su njihovi razgovori, koji su uključivali osobna pitanja i probleme, iznenada postali dostupni na platformama koje su namijenjene analizi web prometa. Google Search Console je alat koji obično koriste web administratori za praćenje i optimizaciju prometa na svojim stranicama, a ne za praćenje privatnih razgovora korisnika. Međutim, analitičari su uočili neobične upite, uključujući i one koji su bili dulji od 300 znakova, što je sugeriralo da su razgovori korisnika postali vidljivi u ovoj platformi.
Jason Packer, vlasnik analitičke tvrtke Quantable, prvi je ukazao na ovaj problem u svom blogu. Njegovo istraživanje dovelo je do suradnje s “internet istražiteljem” Slobodanom Manićem, koji je također stručnjak za web optimizaciju. Njihovo zajedničko istraživanje usredotočilo se na pitanje kako je moguće da su osobni podaci korisnika došli u GSC, a njihovi rezultati sugeriraju da bi OpenAI, tvrtka koja stoji iza ChatGPT-a, mogla direktno prikupljati podatke s Googlea.
### Što su otkrili istražitelji?
Packer i Manić su provodili testiranja i analize kako bi razumjeli prirodu curenja podataka. Ono što su otkrili bilo je alarmantno. Njihova saznanja ukazuju na to da bi OpenAI mogao prikupljati upite korisnika iz Google Search Consolea, koristeći te informacije kako bi poboljšao svoje algoritme i usluge. Ova praksa, ako se pokaže točnom, postavlja ozbiljna pitanja o etici i privatnosti podataka, posebno s obzirom na to da su mnogi korisnici očekivali da će njihovi razgovori ostati privatni.
OpenAI je potvrdio da je svjestan problema i da je “riješio” tehnički kvar koji je privremeno utjecao na način na koji su neki upiti preusmjereni. Međutim, njihova izjava nije odgovorila na pitanja o tome je li OpenAI zapravo prikupljao podatke s Googlea, što ostavlja sumnju među korisnicima.
### Zabrinjavajući sadržaj provale
Packer je pregledao brojne neobične upite koji su se pojavili u GSC-u. Mnogi od njih su bili vrlo osobni; neki su uključivali razgovore o emocionalnim problemima, dok su drugi sadržavali informacije o poslovnim strategijama. Na primjer, jedan korisnik se obraćao ChatGPT-u kako bi istražio ima li simpatija prema njemu dečko koji je često zadirkuje. U drugom slučaju, uredski menadžer je dijelio poslovne informacije dok je planirao povratak zaposlenika u ured. Ova otkrića su izazvala zabrinutost i podsjetila korisnike da njihovi upiti možda nisu tako privatni kao što su mislili.
Packer je u svom blogu naglasio da bi ovi upiti trebali poslužiti kao upozorenje svima koji koriste AI alate: “Nemojte zaboraviti da vaši upiti nisu onoliko privatni koliko mislite.” Ova izjava je dodatno naglasila važnost svijesti korisnika o njihovoj digitalnoj privatnosti i sigurnosti.
### Utjecaj na korisnike i industriju
Curenje podataka iz ChatGPT-a nije samo pitanje etike; ono ima značajan utjecaj na korisnike i širu industriju. Mnogi korisnici su se već suočili s problemima u vezi s privatnošću, a ovaj slučaj dodatno pogoršava situaciju. Ljudi često koriste chatbote za rješavanje osobnih problema, vjerujući da su njihove informacije sigurne. Ipak, sada se postavlja pitanje koliko su ti podaci zaista sigurni.
Ovaj incident također može imati dugoročne posljedice za OpenAI i druge tvrtke u sektoru umjetne inteligencije. Ako se utvrdi da je OpenAI nepropisno prikupljao podatke, moglo bi doći do zakonskih posljedica i gubitka povjerenja korisnika. To bi moglo rezultirati smanjenjem korisničke baze i negativnim posljedicama za reputaciju tvrtke.
### Zaključak
Neobične provale ChatGPT-a u Google Search Console predstavljaju ozbiljnu prijetnju privatnosti korisnika i izazivaju pitanja o etici prikupljanja podataka u industriji umjetne inteligencije. Iako su OpenAI i drugi akteri svjesni problema, nedostatak jasnih odgovora o prirodi curenja i zaštiti korisničkih podataka ostavlja mnoge nedoumice. Dok se tehnologija nastavlja razvijati, važno je da korisnici budu svjesni potencijalnih rizika i da se informiraju o svojim pravima u vezi s privatnošću. Ovaj incident služi kao podsjetnik da u digitalnom svijetu ništa nije potpuno privatno, a zaštita osobnih podataka mora biti prioritet za sve koji koriste suvremene tehnologije.

Ostavi komentar