Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Uvod
U današnje vrijeme, kada je tehnologija postala sastavni dio svakodnevnog života, privatnost i sigurnost podataka su nezaobilazne teme. Pojava umjetne inteligencije (AI), posebno modela poput ChatGPT, otvorila je nova vrata komunikacije, ali i izazvala brojne kontroverze. Jedna od najnovijih situacija koja je izazvala zabrinutost među korisnicima i stručnjacima za tehnologiju su neobični podaci koji su procurili iz ChatGPT-a u Google Search Console (GSC), alat koji se koristi za praćenje performansi web stranica. Ovaj članak istražit će razloge iza ovih curenja, utjecaj na privatnost korisnika te reakcije stručnjaka i kompanija uključenih u situaciju.
### Neobična curenja podataka iz ChatGPT-a
Tijekom posljednjih nekoliko mjeseci, razne osobne i osjetljive konverzacije korisnika s ChatGPT-om počele su se pojavljivati u Google Search Console. Ovaj alat, koji je prvenstveno namijenjen webmasterima za praćenje prometa iz pretraživača, nikada nije bio zamišljen kao platforma za analizu privatnih chatova. Međutim, od rujna ove godine, pojavili su se neobični upiti koji su, u nekim slučajevima, sadržavali više od 300 znakova.
Pojedini korisnici, koji su tražili savjete o osobnim i poslovnim problemima, očigledno nisu bili svjesni da bi njihovi razgovori mogli postati javni. Jason Packer, vlasnik savjetodavne tvrtke za analitiku pod nazivom Quantable, bio je jedan od prvih koji je ukazao na ovaj problem u svom blogu. Njegova istraga, u suradnji s web konzultantom Slobodanom Manićem, dovela je do sumnje da OpenAI, kompanija koja stoji iza ChatGPT-a, možda koristi podatke s Googlea na načine koji kompromitiraju privatnost korisnika.
### Istraživanje i teorija
Kako bi razjasnili situaciju, Packer i Manić provodili su testiranja s ciljem otkrivanja uzroka curenja podataka. Njihova istraživanja dovela su ih do zaključka da bi OpenAI mogla direktno “izvlačiti” podatke iz Google pretraživača koristeći stvarne upite korisnika. Ova pretpostavka, ukoliko se pokaže kao točna, otvara nekoliko važnih pitanja o etici i zakonitosti korištenja osobnih podataka u razvoju umjetne inteligencije.
Unatoč zahtjevima za komentarima i pojašnjenjima, OpenAI nije pružila jasne odgovore na Packerove i Manićeve sumnje. Ipak, jedan predstavnik kompanije potvrdio je da su svjesni problema i da su poduzeli mjere kako bi ispravili grešku koja je utjecala na način na koji su neki pretraživački upiti usmjeravani. Packer je izrazio zadovoljstvo brzim rješenjem problema, ali je također istaknuo da je odgovor OpenAI-a ostavio otvorenim neka pitanja o tome je li pitanje privatnosti potpuno riješeno.
### Specifični primjeri curenja
Packer je analizirao nekoliko upita koji su se pojavili u GSC-u i otkrio da su neki od njih bili vrlo neobični. Na primjer, jedan od upita bio je od žene koja je tražila analizu ponašanja dečka koji je zadirkuje, dok je drugi upit potekao od upravitelja ureda koji je dijelio poslovne informacije povezane s povratkom na radno mjesto. Prema Packerovim riječima, ovo je samo jedan od 200 sličnih upita koje je pregledao.
Ova curenja podsjećaju korisnike da su njihovi upiti možda manje privatni nego što misle. U svijetu gdje se podatci svakodnevno prikupljaju i analiziraju, važno je biti svjestan kako i gdje se informacije dijele. Packer je također spomenuo prethodno izvještavanje medija koje je sugeriralo da OpenAI koristi podatke iz Googlea za poboljšanje svojih modela, ali je naglasio potrebu za transparentnošću u ovim procesima.
### Reakcije i zabrinutosti
Reakcije stručnjaka i javnosti na ovi incident su bile različite. Mnogi su korisnici izrazili zabrinutost glede privatnosti svojih podataka i postavili pitanja o tome kako se koriste njihovi upiti. S obzirom na to da se umjetna inteligencija sve više koristi u raznim sektorima, od poslovanja do zdravstva, pitanja o etici i sigurnosti podataka postaju sve važnija.
OpenAI se suočava s izazovima u održavanju povjerenja korisnika dok istovremeno pokušava napredovati u razvoju svojih AI modela. U svijetu gdje su informacije moć, važno je osigurati da se svi korisnički podaci tretiraju s pažnjom i poštovanjem.
### Zaključak
Slučaj curenja podataka iz ChatGPT-a u Google Search Console predstavlja važnu lekciju o potrebama za zaštitom privatnosti u digitalnom dobu. Uz sve veće korištenje umjetne inteligencije, korisnici moraju biti svjesni rizika koji dolaze s dijeljenjem osobnih informacija. Iako su OpenAI i slične kompanije u stalnoj potrazi za inovacijama, važno je da se razvoj tehnologije odvija uz odgovarajuće mjere zaštite privatnosti.
Unatoč trenutnim problemima, situacija pruža priliku za daljnju raspravu o pravilima i regulativama koje bi trebale regulirati korištenje AI tehnologija. U tom smislu, važno je da svi dionici – od korisnika do programera i regulativnih tijela – rade zajedno na osiguranju sigurnijeg digitalnog okruženja za sve. Samo na taj način možemo osigurati da tehnologija služi čovječanstvu, a ne obrnuto.
Ostavi komentar