Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Uvod
U digitalnom dobu, sigurnost i privatnost podataka postali su ključno pitanje za mnoge korisnike interneta. Jedan od najnovijih skandala koji je uzburkao javnost odnosi se na ChatGPT, popularnog AI chatbota, koji je iznenada počeo otkrivati izuzetno privatne razgovore korisnika putem Google Search Console (GSC). Ovaj alat, koji se obično koristi za praćenje prometa na web stranicama, postao je neočekivana platforma za prenošenje osobnih i osjetljivih informacija. U nastavku ćemo istražiti ovaj fenomen, njegove implikacije i reakciju tvrtki uključenih u ovaj skandal.
### Glavni dio
#### Što se dogodilo?
U rujnu 2023. godine, korisnici su primijetili da se u GSC-u, umjesto uobičajenih upita vezanih uz ključne riječi, počinju pojavljivati neobični i dugi upiti. Ovi upiti, koji su ponekad imali više od 300 znakova, sadržavali su osobne razgovore korisnika s ChatGPT-om. Očigledno je da su mnogi od njih tražili savjet o raznim pitanjima, od osobnih odnosa do poslovnih strategija, ne shvaćajući da bi ti podaci mogli biti izloženi javnosti.
Jason Packer, vlasnik analitičke konzultantske tvrtke Quantable, prvi je ukazao na ovaj problem u detaljnom blogu. Njegovo istraživanje otkrilo je da OpenAI, tvrtka koja stoji iza ChatGPT-a, može biti odgovorna za prikupljanje ovih podataka putem Googlea, kršeći time privatnost korisnika.
#### Istraživanje i teorije
Kako bi bolje razumjeli situaciju, Packer se udružio s Slobodanom Manićem, konzultantom za web optimizaciju, te su zajedno proveli istraživačke testove. Njihovo istraživanje dovelo ih je do saznanja da bi OpenAI mogao izravno prikupljati podatke s Google Searcha, što je izazvalo zabrinutost oko sigurnosti korisničkih informacija.
U njihovom blogu, Packer postavlja pitanje o privatnosti i povjerljivosti korisničkih upita, naglašavajući da previše ljudi misli kako su njihovi razgovori s AI-jem sigurni i privatni. Iako je OpenAI priznalo postojanje problema, njihova izjava nije razjasnila sve sumnje. Packer je izrazio zadovoljstvo brzim odgovorom OpenAI-a, ali je i istaknuo da postoji prostora za sumnju u potpunu ispravnost situacije.
#### Primjeri neobičnih upita
Packer je u svom istraživanju analizirao više od 200 neobičnih upita koji su se pojavili u GSC-u. Među njima su se našli neobični razgovori, uključujući jedan u kojem je korisnica tražila pomoć u vezi s osjećajima momka koji je zadirkuje. Drugi upit dolazio je od upravitelja ureda koji je dijelio poslovne informacije dok je planirao najavu povratka na posao.
Ovi primjeri jasno pokazuju koliko su povjerljivi razgovori zapravo javno dostupni, što je dodatno potaknulo zabrinutost oko privatnosti korisnika. Packer je iznio tezu da su ovi upiti podsjetnik na to da korisnici ne bi trebali pretpostavljati da su njihovi razgovori s AI-jem nevidljivi ili sigurni.
#### Reakcija OpenAI-a i Googlea
Dok su Packer i Manić tražili odgovore, OpenAI je potvrdio da su svjesni problema i da su “riješili” grešku koja je privremeno utjecala na način na koji su neki upiti usmjeravani. Međutim, njihova izjava nije otklonila sumnje u potencijalno kopiranje podataka s Googlea.
Google se, s druge strane, nije želio izjašnjavati o ovom pitanju, što dodatno komplicira situaciju. Korisnici i stručnjaci sada se pitaju koliko su njihovi podaci zapravo sigurni i kako zaštititi svoju privatnost u svijetu gdje AI alati postaju sve prisutniji.
#### Utjecaj na korisnike i budućnost AI-a
Ova situacija otvara važne rasprave o etici korištenja umjetne inteligencije i privatnosti korisnika. Mnogi se pitaju kako je moguće da se ovakvi podaci pojavljuju na platformi koja bi trebala biti sigurna. Korisnici su suočeni s dilemom — trebaju li se potpuno povući iz korištenja AI servisa poput ChatGPT-a ili vjerovati da će tvrtke poduzeti mjere za zaštitu njihovih podataka.
U budućnosti, važno je da se razviju jasne smjernice i pravila za korištenje umjetne inteligencije, kako bi se osigurala sigurnost i povjerenje korisnika. Također, korisnici bi trebali biti educirani o rizicima dijeljenja osobnih informacija s AI alatima.
### Zaključak
Skandal oko provale privatnosti korisnika ChatGPT-a putem Google Search Console ozbiljan je podsjetnik na važnost sigurnosti podataka u digitalnom svijetu. Iako su OpenAI i Google svjesni problema, korisnici i dalje trebaju biti oprezni i svjesni rizika. Ova situacija ne samo da ukazuje na potrebu za transparentnošću u radu s umjetnom inteligencijom, već i na nužnost jačanja zaštite privatnosti korisnika. U konačnici, samo kroz zajednički rad i odgovorno ponašanje svih strana možemo osigurati sigurnije digitalno okruženje za sve.
Ostavi komentar