Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Intrigantni curenja ChatGPT-a: Osjetljivi razgovori u Google Analyticsu
#### Uvod
U današnje digitalno doba, privatnost podataka postaje sve važnija tema, osobito kada su u pitanju umjetničke inteligencije kao što je ChatGPT. Nedavna otkrića o curenju osjetljivih korisničkih razgovora u Google Search Console, alatu koji je prvenstveno namijenjen analizi internetskog prometa, izazvala su veliku zabrinutost među korisnicima i stručnjacima za sigurnost podataka. Ovaj članak istražuje na koji način su se ovaj problem dogodio, što to znači za privatnost korisnika i što možemo očekivati u budućnosti.
#### Glavni dio
Tijekom proteklih nekoliko mjeseci, uočeno je kako su izuzetno osobni i osjetljivi razgovori s ChatGPT-om iscurili u neobičan izvor: Google Search Console (GSC). Ovaj alat obično koriste web administratori za nadgledanje prometa koji dolazi s pretraživača, a ne za praćenje privatnih razgovora korisnika. No, od rujna ove godine, u GSC-u su se počeli pojavljivati neobični upiti, neki od njih dulji od 300 znakova, koji su otkrivali korisnička pitanja postavljena chatbotu.
Prema analizama, ovi razgovori često su se odnosili na osobne ili poslovne probleme, a korisnici su vjerojatno očekivali da će ti podaci ostati privatni. Jason Packer, vlasnik analitičke konzultantske tvrtke Quantable, bio je jedan od prvih koji je ukazao na ovaj problem u svom blogu prošlog mjeseca. Packer se udružio s Slobodanom Manićem, konzultantom za web optimizaciju, kako bi istražio uzroke ovih curenja.
#### Istraživanje i otkrića
Packer i Manić proveli su testiranja koja su, kako vjeruju, otkrila “prve definitive dokaze da OpenAI izravno koristi Google Search s pravim korisničkim upitima”. Njihovo istraživanje sugerira da je OpenAI kompromitirao privatnost korisnika, u nekim slučajevima koristeći podatke s pretraživača koje Google inače ne bi podijelio. Nažalost, OpenAI nije potvrdio Packerovu i Manićevu teoriju, kao ni njihova pitanja koja bi mogla pomoći korisnicima da shvate opseg problema.
Ipak, glasnogovornik OpenAI-a potvrdio je da su “svjesni” problema i da su “riješili” grešku koja je privremeno utjecala na način na koji su neki upiti preusmjereni. Packer je izjavio da je zadovoljan brzim odgovorom OpenAI-a, ali je također naglasio da odgovor nije potvrdio je li OpenAI doista koristio Google za prikupljanje podataka, ostavljajući tako prostora za sumnju u potpunu razrješavanje problema.
#### Sadržaj neobičnih upita
Jedan od prvih neobičnih upita koje je Packer analizirao bio je razgovor o ponašanju, u kojem je, najvjerojatnije, ženska korisnica tražila savjet od ChatGPT-a kako bi razumjela ima li zainteresiranosti od strane mladića koji ju zadirkuje. Drugi upit dolazio je od uredskog menadžera koji je dijelio poslovne informacije dok je planirao obavijest o povratku na posao. Ovi primjeri samo su vrh sante leda; Packer je pregledao ukupno 200 neobičnih upita, među kojima su bili i “prilično ludi” upiti.
Iz svog istraživanja, Packer je zaključio da ovi upiti služe kao podsjetnik da upiti nisu toliko privatni koliko se možda čini. On je ukazao na povezanost s izvještajem iz kolovoza, koji je naveo izvore koji su tvrdili da OpenAI koristi podatke iz Googlea.
#### Utjecaj na privatnost korisnika
Ova curenja postavljaju ozbiljna pitanja o privatnosti korisnika i o tome kako se podaci obrađuju u digitalnom svijetu. Kada korisnici interagiraju s AI chatbotovima poput ChatGPT-a, očekuju da će njihovi razgovori ostati privatni i zaštićeni. Međutim, najnovija otkrića sugeriraju da bi ti podaci mogli biti izloženi neovlaštenom pristupu, što predstavlja ozbiljan udarac povjerenju korisnika.
U današnje vrijeme, kada su cyber napadi i krađa podataka česti, važno je da korisnici budu svjesni rizika koji dolaze s dijeljenjem osjetljivih informacija. Ova situacija također naglašava potrebu za većim transparentnostima i odgovornosti tehnoloških tvrtki u vezi s obradom korisničkih podataka.
#### Što možemo učiniti?
Kao korisnici, postoji nekoliko koraka koje možemo poduzeti kako bismo zaštitili svoju privatnost prilikom korištenja AI alata. Prvo, važno je biti oprezan s informacijama koje dijelite. Izbjegavajte dijeljenje osobnih podataka i osjetljivih informacija prilikom komunikacije s chatbotovima.
Drugo, korisnici bi trebali redovito provjeravati postavke privatnosti na platformama koje koriste kako bi osigurali da su njihovi podaci zaštićeni. Također, važno je pratiti vijesti i ažuriranja o sigurnosti podataka kako biste bili informirani o potencijalnim rizicima.
Također, korisnici bi trebali razmotriti korištenje alata za zaštitu privatnosti, kao što su VPN-ovi, koji mogu dodati dodatni sloj sigurnosti tijekom internetskog surfanja.
#### Zaključak
Curenja osjetljivih razgovora s ChatGPT-om u Google Search Console predstavljaju značajan problem za privatnost korisnika. Iako je OpenAI potvrdio da su svjesni problema i da su ga riješili, ostaje pitanje o tome koliko su korisnički podaci zaista zaštićeni. Kao korisnici, moramo biti svjesni rizika i poduzeti proaktivne mjere kako bismo osigurali svoju privatnost u ovom digitalnom svijetu.
Ova situacija služi kao podsjetnik svima nama da je zaštita privatnosti u digitalnom dobu od izuzetne važnosti i da moramo biti oprezni s informacijama koje dijelimo. Samo kroz svijest i odgovorno ponašanje možemo se zaštititi od potencijalnih opasnosti.

Ostavi komentar