Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Neočekivani curenje podataka: Osjetljive ChatGPT konverzacije u Google Search Console
#### Uvod
U svijetu tehnologije i internetskih alata, sigurnost podataka i privatnost korisnika često su na prvom mjestu. Međutim, nedavna otkrića vezana uz rad popularnog umjetničkog inteligentnog sustava, ChatGPT, otkrila su zabrinjavajuću situaciju koja je uzburkala javnost. Naime, osobne i osjetljive konverzacije koje su vodili korisnici s ChatGPT-om tajno su se pojavljivale u Google Search Console (GSC), alatu koji se obično koristi za praćenje pretraživačkog prometa, a ne za analizu privatnih chatova. Ovaj članak detaljno će istražiti tu situaciju, objašnjavajući što se točno dogodilo, tko je otkrio problem i koje su potencijalne posljedice za korisnike i razvoj umjetne inteligencije.
#### Što je Google Search Console?
Google Search Console je besplatan alat koji Google nudi webmasterima i vlasnicima web stranica kako bi mogli pratiti i optimizirati svoj sadržaj na pretraživaču. Ovaj alat omogućava korisnicima da vide podatke o tome kako njihova stranica performira na Google pretraživaču, uključujući ključne riječi koje korisnici koriste za pronalaženje određene stranice, broj klikova, prikazivanja i druge važne metrike. Međutim, ono što se dogodilo s ChatGPT-om ukazuje na novi, neobičan problem koji se tiče privatnosti korisnika.
#### Neočekivano curenje podataka
Tijekom rujna 2023. godine, korisnicima Google Search Console-a počele su se prikazivati neobične pretrage koje su uključivale duge fraze, ponekad duže od 300 znakova. Ove pretrage su očito dolazile od nesvjesnih korisnika koji su postavljali pitanja chatbotu, tražeći savjet o osobnim ili poslovnim problemima. Mnogi od njih su vjerojatno vjerovali da su njihovi razgovori s ChatGPT-om privatni i sigurni.
Jedan od prvih koji je ukazao na ovaj problem bio je Jason Packer, vlasnik analitičke tvrtke Quantable. U svom blogu, Packer je detaljno opisao situaciju i naglasio kako je odlučio istražiti uzrok curenja podataka. Udružio se s Slobodanom Manićem, konzultantom za web optimizaciju, kako bi pokušao otkriti što točno uzrokuje pojavu ovih osjetljivih informacija u GSC-u.
#### Istraživanje i rezultati
Packer i Manić su proveli seriju testova koji su sugerirali da OpenAI, tvrtka koja stoji iza ChatGPT-a, možda uzima podatke s Google pretraživača koristeći stvarne korisničke upite. Njihovo istraživanje sugerira da bi OpenAI mogao kršiti privatnost korisnika kako bi održao angažman sustava koristeći podatke koje Google inače ne bi dijelio. Ova sumnja bacila je sjenu na reputaciju OpenAI-a i otvorila brojna pitanja o etici korištenja umjetne inteligencije.
Ubrzo nakon što je ovaj problem otkriven, predstavnik OpenAI-a je potvrdio da su svjesni problema i da su “riješili” tehnički kvar koji je privremeno utjecao na način na koji su neki pretraživački upiti bili usmjereni. Međutim, Packer je izrazio zabrinutost da odgovor OpenAI-a nije razjasnio sve sumnje vezane uz to da li tvrtka zapravo koristi podatke s Google-a.
#### Prvi indikatori problema
Jedna od prvih neobičnih pretraga koju je Packer analizirao bila je razgovor u kojem je korisnica, najvjerojatnije žena, tražila savjet o tome kako shvatiti da li mladić koji joj se sviđa ima osjećaje prema njoj. Također, naišao je na upite od poslovnih menadžera koji su dijelili osjetljive informacije dok su planirali povratak zaposlenika u ured. Ove situacije samo su dio od 200 neobičnih pretraga koje je Packer pregledao na jednoj web stranici.
Prema njegovim riječima, ove pretrage trebale bi poslužiti kao podsjetnik da upiti koje šaljemo chatbotovima nisu uvijek onoliko privatni koliko mislimo da jesu. Ovaj incident otvara pitanja o tome koliko su naše interakcije s AI sustavima zaista sigurne i privatne.
#### Potencijalne posljedice
Ova situacija donosi nekoliko ozbiljnih pitanja o etici i privatnosti u svijetu umjetne inteligencije. Prije svega, korisnici moraju biti svjesni da njihovi podaci mogu biti izloženi na načine koje nisu očekivali. To može imati ozbiljne posljedice, posebno u slučajevima kada se radi o osobnim ili poslovnim problemima koji se dijele s AI sustavom.
Osim toga, ova situacija također može potaknuti raspravu o regulacijama koje se odnose na zaštitu privatnosti korisnika i način na koji tvrtke kao što je OpenAI koriste podatke. Kako se umjetna inteligencija nastavlja razvijati, važno je da se uspostave jasna pravila i smjernice kako bi se zaštitili korisnici.
#### Zaključak
U svijetu gdje tehnologija napreduje brže nego ikada prije, važno je postaviti pitanja o sigurnosti i privatnosti. Incident s ChatGPT-om i njegovim curenjem osjetljivih konverzacija u Google Search Console služi kao upozorenje svim korisnicima o potencijalnim rizicima koje donose interakcije s umjetnom inteligencijom. Kao društvo, moramo osigurati da su naši podaci sigurni i da se s njima postupa odgovorno. Samo tako možemo izbjeći slične situacije u budućnosti i izgraditi povjerenje u tehnologiju koja oblikuje naš svakodnevni život.
Ostavi komentar