
Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Uvod
U posljednjih nekoliko mjeseci, svijet umjetne inteligencije i privatnosti korisnika suočava se s neobičnim fenomenom. Naime, razgovori koje korisnici imaju s ChatGPT-om, poznatim chatbotom koji pokreće OpenAI, počeli su se neprimjereno pojavljivati u Googleovoj analitičkoj usluzi. Ova situacija je izazvala zabrinutost među stručnjacima i korisnicima koji se pitaju kako je moguće da tako osjetljive informacije završe na platformi koja nije namijenjena za pohranu osobnih podataka. U ovom članku istražit ćemo ovu neobičnu pojavu, analizirati uzroke i posljedice te razmotriti kako se ona može odraziti na budućnost korištenja AI tehnologija.
### Glavni dio
#### Što se zapravo dogodilo?
Prema izvješćima, ChatGPT-ovi razgovori su se počeli pojavljivati u Google Search Consoleu (GSC), alatu koji se koristi za praćenje prometa na web stranicama. Uobičajeno, korisnici GSC-a analiziraju podatke o pretraživačkim upitima koji se temelje na ključnim riječima ili frazama koje ljudi koriste da bi pronašli određeni sadržaj. Međutim, od rujna, zamijećeni su i neobični upiti koji su ponekad bili dugi više od 300 znakova. Ovi upiti, koji su sadržavali osobne razgovore, ukazivali su na to da su korisnici tražili pomoć chatbotu u vezi s osobnim ili poslovnim problemima, vjerujući da su njihovi razgovori privatni.
#### Istraživanje i otkrića
Jedan od prvih koji je skrenuo pažnju na ovaj problem bio je Jason Packer, vlasnik konzultantske tvrtke za analitiku pod nazivom Quantable. U svojem je blogu detaljno opisao svoja otkrića i izrazio zabrinutost zbog potencijalnog kršenja privatnosti korisnika. Packer se udružio s Slobodanom Manićem, konzultantom za web optimizaciju, kako bi istražio uzrok curenja podataka. Njihovo zajedničko istraživanje dovelo je do zaključka da OpenAI možda izravno koristi podatke s Googlea kako bi poboljšao svoje usluge.
Njihovi nalazi sugeriraju da bi OpenAI mogao koristiti informacije iz GSC-a kako bi poboljšao korisničko iskustvo, a pritom ugrožava privatnost svojih korisnika. Ova teza dodatno je potkrijepljena činjenicom da je OpenAI potvrdio da je svjestan problema i da je “riješio” tehnički kvar koji je privremeno utjecao na način na koji su neki upiti preusmjereni.
#### Reakcija OpenAI-a
OpenAI je, odgovarajući na upite, izjavio da su poduzeli mjere kako bi ispravili problem, no nije jasno je li njihovo rješenje u potpunosti riješilo situaciju. Packer je izrazio zadovoljstvo brzim rješavanjem problema, ali se i dalje postavlja pitanje je li privatnost korisnika u potpunosti zaštićena. Njihova nerazjašnjena situacija poslužila je kao alarm za sve koji koriste AI alate i pokazala koliko je važno pažljivo upravljati osobnim podacima.
#### Sadržaj neobičnih upita
Packer je pregledao više od 200 neobičnih upita, među kojima su se našli različiti, ponekad čak i bizarni, razgovori. Primjerice, jedan od upita dolazio je od korisnice koja je razgovarala s ChatGPT-om o svojim osjećajima prema dječaku koji joj se sviđa. U drugom slučaju, upit je poslao menadžer koji je dijelio poslovne informacije dok je planirao obavijest o povratku u ured. Ovi primjeri ilustriraju koliko su razgovori s chatbotovima osobni i kako bi njihovo curenje moglo imati ozbiljne posljedice na privatnost pojedinaca.
Packer je istaknuo da ovi upiti služe kao podsjetnik da korisnici ne bi trebali smatrati svoje interakcije s chatbotovima potpuno privatnima. Iako se može činiti da su razgovori s AI-jem bezopasni, stvarnost je da podaci mogu završiti na nepredviđenim mjestima, što može rezultirati neugodnostima ili čak pravnim posljedicama.
#### Što to znači za korisnike?
Ova situacija predstavlja izazov za sve korisnike AI tehnologija. Mnogi ljudi koriste chatbotove za savjete u vezi s osobnim pitanjima, a curenje tih informacija može dovesti do ozbiljnih problema, uključujući emocionalne, pravne i profesionalne posljedice. Potrebno je podići svijest o tome kako se koriste alati poput ChatGPT-a i osigurati da se privatnost podataka shvaća ozbiljno.
Osim toga, ova situacija može potaknuti korisnike na preispitivanje svojih navika korištenja tehnologije i potaknuti ih da budu oprezni prilikom dijeljenja osobnih informacija. Također, može potaknuti razvoj boljih sigurnosnih protokola i pravila za zaštitu podataka u industriji umjetne inteligencije.
### Zaključak
Neobične situacije poput curenja razgovora s ChatGPT-om u Google Search Console otvaraju važna pitanja o privatnosti i sigurnosti podataka u digitalnom doba. Dok se tehnologija nastavlja razvijati, važno je da korisnici budu svjesni rizika koji dolaze s korištenjem AI alata. Osim toga, tvrtke poput OpenAI trebaju poduzeti odgovarajuće mjere kako bi osigurale zaštitu privatnosti svojih korisnika i osigurale da sakupljanje podataka ne ugrožava njihovu sigurnost.
Ova situacija može poslužiti kao važna lekcija za sve nas – moramo ostati informirani i oprezni u vezi s načinom na koji koristimo tehnologiju i onim što dijelimo s njom. U konačnici, privatnost korisnika bi trebala biti prioritet, a svi dionici u industriji moraju raditi na tome da je zaštite u budućnosti.

Ostavi komentar