Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Uvod
U suvremenom digitalnom svijetu, pitanja privatnosti i zaštite osobnih podataka postaju sve relevantnija, osobito kada je riječ o umjetnoj inteligenciji i alatima koji koriste te tehnologije. Nedavno se dogodila situacija koja je izazvala zabrinutost među korisnicima ChatGPT-a, popularnog chatbota razvijenog od strane OpenAI. Mnogi korisnici nisu ni slutili da su njihovi osobni razgovori, često vrlo intimni, procurili u Google Search Console (GSC), alat koji se obično koristi za analizu prometa na web stranicama. Ovaj fenomen pobudio je interes medija i stručnjaka za analizu podataka, a njegovi su učinci značajni za sve korisnike internetskih usluga.
### Glavni dio
#### Što se dogodilo?
Od rujna ove godine, korisnici su počeli primjećivati neobične upite u Google Search Console, koji su uključivali dugačke nizove znakova koji su često premašivali 300 karaktera. Ovi upiti nisu bili uobičajeni pretraživački upiti, već su se činili kao privatni razgovori između korisnika i ChatGPT-a, u kojima su se raspravljali osobni problemi, poput ljubavnih odnosa ili poslovnih izazova. Očigledno, korisnici su vjerovali da su njihovi razgovori s chatbotom sigurni i da će ostati privatni.
#### Istraživanje problema
Jason Packer, vlasnik analitičke konzultantske tvrtke Quantable, bio je jedan od prvih koji je uočio ovaj problem. U svom blogu iz prošlog mjeseca detaljno je opisao situaciju i pokrenuo pitanje o privatnosti korisnika. Zajedno s web optimizacijskim konzultantom Slobodanom Manićem, Packer je započeo istraživanje kako bi utvrdio uzrok curenja podataka. Njihovo istraživanje dovelo ih je do uvjerenja da OpenAI možda izravno koristi podatke iz Google pretraživanja, što bi predstavljalo ozbiljno kršenje privatnosti korisnika.
#### Odgovor OpenAI-a
Iako je OpenAI odbio komentirati teoriju koju su Packer i Manić iznijeli, glasnogovornik tvrtke potvrdio je da su svjesni problema i da su riješili grešku koja je “privremeno utjecala na način na koji je mali broj pretraživačkih upita bio usmjeren”. Packer je izrazio zadovoljstvo brzim rješavanjem problema, ali je također naglasio da odgovori OpenAI-a nisu razjasnili je li tvrtka zapravo koristila podatke iz Googlea, ostavljajući otvorena pitanja o cjelokupnoj situaciji.
#### Neobični upiti
Jedan od najneobičnijih upita koji je Packer analizirao bio je razgovor vjerojatno žene koja je tražila savjet od ChatGPT-a o osjećajima dječaka koji je zadirkuje. Drugi primjer uključivao je poslovnu komunikaciju od strane upravitelja ureda, koji je dijelio informacije vezane uz najavu povratka na posao. Ova dva primjera su samo dio od 200 neobičnih upita koje je Packer analizirao na jednoj web stranici, a neki su bili “prilično ludi”, kako je sam izjavio.
#### Posljedice za korisnike
Ova situacija predstavlja ozbiljnu zabrinutost za korisnike koji se oslanjaju na alate poput ChatGPT-a kako bi zadržali osobne konverzacije u tajnosti. Mnogi ljudi koriste chatbotove za rješavanje privatnih problema, vjerujući da su njihovi podaci zaštićeni. Ovaj incident ukazuje na to da bi korisnici trebali biti oprezniji prilikom dijeljenja osjetljivih informacija putem digitalnih platformi.
#### Utjecaj na industriju
Ova situacija također može imati dugoročne posljedice na način na koji se razvijaju i koriste AI alati. Mnogi korisnici će se vjerojatno povući od korištenja chatbotova ako ne budu sigurni u njihovu privatnost i sigurnost podataka. Osim toga, ovakvi incidenti mogu dovesti do povećane regulacije i nadzora nad AI tehnologijama, što bi moglo promijeniti način na koji se ti alati implementiraju i koriste u budućnosti.
#### Potreba za transparentnošću
Kako bi se izbjegle slične situacije u budućnosti, tvrtke koje razvijaju AI alate moraju pružiti veću razinu transparentnosti u vezi s načinom na koji koriste korisničke podatke. Korisnici bi trebali imati jasne informacije o tome kako se njihovi podaci prikupljaju, obrađuju i koriste. Također bi trebali imati mogućnost kontrolirati svoje podatke i odlučivati o njihovoj upotrebi.
### Zaključak
Incident s curenjem osobnih podataka iz ChatGPT-a u Google Search Console predstavlja ozbiljnu zabrinutost za privatnost korisnika i otvara pitanja o etici i transparentnosti u razvoju umjetne inteligencije. Kako se tehnologija nastavlja razvijati, važno je da korisnici budu svjesni potencijalnih rizika i da tvrtke preuzmu odgovornost za zaštitu osobnih podataka. Samo kroz otvorenu komunikaciju i jasno razumijevanje načina na koji se podaci koriste, možemo izgraditi povjerenje između korisnika i tehnologije. Ova situacija služi kao snažna opomena svima koji koriste digitalne alate i podsjeća nas na važnost zaštite privatnosti u današnjem svijetu.
Ostavi komentar