Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
# Iznenađujući curenja ChatGPT razgovora: Neobični podaci otkriveni u Google Analytics alatu
## Uvod
U današnje digitalno doba, privatnost korisnika je od iznimne važnosti, osobito kada je riječ o interakcijama s umjetnom inteligencijom. Međutim, nedavna otkrića vezana uz ChatGPT, alat umjetne inteligencije razvijen od strane OpenAI-a, ukazuju na alarmantne propuste u zaštiti privatnosti korisnika. Naime, razgovori korisnika s ChatGPT-om iznenada su se počeli pojavljivati u Google Search Console (GSC), alatu koji se obično koristi za praćenje performansi web stranica i analizu prometa. Ovaj članak istražuje ovu neobičnu situaciju, uključujući kako su provale otkrivene, koji su njihovi uzroci, te što to znači za privatnost korisnika.
## Razvoj situacije
Problem je započeo u rujnu 2023. godine kada su web analitičari primijetili neobične upite u GSC-u. Ovi upiti, koji su ponekad bili duži od 300 znakova, nisu bili tipične pretrage koje se očekuju. Umjesto da se radi o klasičnim pretraživanjima informacija ili sadržaja, mnogi od ovih unosa izgledali su kao privatni razgovori između korisnika i ChatGPT-a, gdje su se ljudi obraćali chatbotu s pitanjima o osobnim problemima ili poslovnim izazovima.
Jedan od prvih koji je ukazao na ovaj problem bio je Jason Packer, vlasnik analitičke tvrtke Quantable. Packer je u svome blogu detaljno opisao kako je primijetio ove neobične upite i odlučio ih dublje istražiti. U suradnji s poznatim konzultantom za web optimizaciju, Slobodanom Manićem, Packer je proveo niz testova kako bi utvrdio uzrok curenja. Njihova istraživanja sugeriraju da OpenAI možda koristi podatke pretraživanja iz Googlea kako bi poboljšao svoj alat, što podiže ozbiljna pitanja o privatnosti korisnika.
## Otkriveni slučajevi
Packer je pregledao brojne neobične upite i identificirao nekoliko koji su ga posebno zaintrigirali. Na primjer, jedan korisnik, najvjerojatnije žene, pisao je ChatGPT-u o svojim osjećajima prema mladiću koji je zadirkuje, tražeći savjet o tome što bi to moglo značiti. Drugi upit dolazio je od menadžera u uredu koji se savjetovao s chatbotom oko povratka zaposlenika u ured, dijeleći pritom poslovne informacije koje su se očito smatrale povjerljivima.
Ovo su samo dva od više od 200 sličnih upita koje je Packer pregledao, a koji su uključivali razgovore koji su bili daleko od onoga što bi netko očekivao da će se javno iznijeti. Packer je naglasio kako ti upiti služe kao podsjetnik da privatnost korisničkih unosa nije uvijek onakva kakvom je korisnici smatraju.
## Utjecaj na privatnost korisnika
Zabrinutost zbog privatnosti korisnika nikad nije bila veća, a ova situacija samo dodatno naglašava važnost zaštite osobnih podataka u digitalnom svijetu. Ako se ovakvi razgovori mogu lako prenijeti u GSC, što to onda znači za povjerenje korisnika prema alatima umjetne inteligencije? Kako bi korisnici mogli biti sigurni da njihovi podaci ostaju privatni kada koriste chatbotove poput ChatGPT-a?
Otkrivena curenja ukazuju na potencijalne propuste u zaštiti podataka, što može dovesti do ozbiljnih posljedica. U trenutku kada sve više ljudi koristi digitalne alate za rješavanje osobnih i poslovnih problema, pitanje sigurnosti tih podataka postaje ključno. Važno je znati da informacije koje se dijele s AI alatima mogu postati dostupne i trećim stranama, što može narušiti povjerenje korisnika.
## Reakcija OpenAI-a i Googlea
Nakon što su otkrića postala javna, OpenAI je potvrdio da su svjesni problema i da su poduzeli korake kako bi riješili “grešku koja je privremeno utjecala na to kako se mali broj upita pretraživanja usmjeravao”. Iako su korisnici izrazili zadovoljstvo brzom reakcijom, ostaje pitanje je li problem stvarno riješen. Packer je naglasio da je odgovor OpenAI-a nedovoljno jasan i da ne potvrđuje jesu li zaista koristili podatke iz Googlea.
Google se, s druge strane, nije izjasnio o situaciji, ostavljajući korisnicima da se pitaju koliko su njihovi podaci zaista sigurni. Ovakva tišina s obje strane može dodatno povećati zabrinutosti među korisnicima, koji se suočavaju s nesigurnostima u pogledu svojih privatnih informacija.
## Zaključak
S obzirom na sve veći broj korisnika koji se oslanjaju na alate umjetne inteligencije, važno je da se problem privatnosti podataka ozbiljno shvati. Curenje razgovora iz ChatGPT-a u Google Analytics predstavlja ozbiljan signal da bi korisnici trebali biti oprezni s informacijama koje dijele s ovakvim alatima. Ova situacija također naglašava potrebu za većom transparentnošću i odgovornošću od strane tvrtki koje se bave razvojem umjetne inteligencije.
Osim toga, korisnici bi trebali biti educirani o tome kako zaštititi svoje podatke i biti svjesni potencijalnih rizika povezanih s korištenjem digitalnih alata. U konačnici, samo zajedničkim naporima možemo osigurati da se privatnost korisnika poštuje i da se interakcije s tehnologijom odvijaju u sigurnom i povjerljivom okruženju. U svijetu gdje tehnologija napreduje brže nego ikad, važnost očuvanja privatnosti nikad nije bila veća.

Ostavi komentar