Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool – Ars Technica
### Uvod
Svijet umjetne inteligencije i digitalnih tehnologija neprestano se razvija, a s njim se pojavljuju i nova pitanja o privatnosti i sigurnosti podataka. Jedna od najnovijih kontroverzi koja je privukla pažnju javnosti odnosi se na ChatGPT, model umjetne inteligencije razvijen od strane OpenAI. Naime, otkriveno je da su osobni i osjetljivi razgovori korisnika s ChatGPT-om, iznenađujuće, procurili u Google Search Console (GSC). Ovaj alat, koji se obično koristi za praćenje prometa pretraživanja, nije mjesto gdje bi se očekivale privatne konverzacije. U ovom članku istražit ćemo koji su uzroci ovih curenja, kako su otkrivena te kakve posljedice mogu imati za korisnike i razvoj umjetne inteligencije.
### Razvoj situacije i otkriće curenja
U rujnu 2023. godine, Jason Packer, vlasnik konzultantske tvrtke za analitiku Quantable, prvi je skrenuo pažnju na problem neobičnih upita koji su se počeli pojavljivati u Google Search Console. Ovi upiti, često dulji od 300 znakova, uključivali su osobne i osjetljive teme poput romantičnih problema ili poslovnih dilema. Korisnici, očito nesvjesni da bi njihovi razgovori mogli postati javni, tražili su pomoć od ChatGPT-a, vjerujući da su njihovi podaci zaštićeni.
Packer je zajedno sa Slobodanom Manićem, konzultantom za web optimizaciju, proveo detaljno istraživanje kako bi otkrio uzrok curenja. Njihovo istraživanje dovelo je do sumnje da OpenAI može izravno prikupljati podatke iz Google Searcha koristeći stvarne korisničke upite. Ovo otkriće postavilo je ozbiljna pitanja o zaštiti privatnosti i sigurnosti korisničkih podataka.
### Uloga OpenAI-a i odgovor na situaciju
Unatoč naporima da se situacija razjasni, OpenAI nije bio voljan potvrditi ili opovrgnuti teorije koje su iznijeli Packer i Manić. Kada su novinari kontaktirali OpenAI, predstavljeni su s informacijom da su svjesni problema i da su “riješili” grešku koja je privremeno utjecala na način usmjeravanja određenog broja upita. Međutim, Packer je izrazio zabrinutost da odgovor OpenAI-a nije bio dovoljan za smanjenje sumnje oko mogućeg prikupljanja podataka te je naglasio potrebu za dodatnim pojašnjenjem.
### Neobični upiti i njihova priroda
Packer je u svom istraživanju analizirao više od 200 neobičnih upita, a neki od njih su bili prilično bizarni. Primjerice, jedan od upita dolazio je od vjerojatno žene koja je od ChatGPT-a tražila savjet o tome kako shvatiti ima li dečko koji je zadirkuje osjećaje prema njoj. Drugi upit potjecao je od menadžera u uredu koji je dijelio poslovne informacije u okviru priprema za najavu povratka zaposlenika u ured.
Ovi upiti otkrivaju koliko su korisnici često nesvjesni da njihovi osobni razgovori mogu biti izloženi. Packer je naglasio da bi ovo iskustvo trebalo poslužiti kao podsjetnik da upiti koje davamo umjetnoj inteligenciji nisu toliko privatni koliko se možda čini.
### Utjecaj na korisnike i povjerenje u tehnologiju
Ova situacija izaziva ozbiljna pitanja o povjerenju korisnika u tehnologiju. U trenutnom digitalnom okruženju, korisnici očekuju da su njihovi podaci zaštićeni, pogotovo kada koriste usluge umjetne inteligencije koje obrađuju osjetljive informacije. Otkrivena curenja mogu dovesti do gubitka povjerenja u OpenAI i slične kompanije. Ljudi mogu postati oprezniji pri dijeljenju osobnih informacija s AI sustavima, što može utjecati na korisničko iskustvo i interakciju s tehnologijom.
### Tehnološki izazovi i budućnost umjetne inteligencije
U svjetlu ovog incidenta, važno je razmotriti i šire tehnološke izazove s kojima se suočava industrija umjetne inteligencije. Kako se tehnologija razvija, tako se i metode prikupljanja podataka moraju prilagoditi kako bi se osigurala privatnost korisnika. OpenAI i slične tvrtke moraju raditi na uspostavljanju jasnijih pravila i procedura koje će osigurati zaštitu podataka. U suprotnom, rizik od curenja informacija odlazi u visoke razmjere, što može imati dugoročne posljedice.
### Zaključak
Curenje osobnih razgovora iz ChatGPT-a u Google Search Console otkriva ozbiljne probleme s privatnošću i sigurnošću podataka u svijetu umjetne inteligencije. Iako su OpenAI i drugi tehnološki divovi svjesni ovih izazova, važno je da provedu potrebne mjere kako bi zaštitili korisnike. Ova situacija služi kao podsjetnik na potrebu za većom transparentnošću i odgovornošću u razvoju i implementaciji tehnologija koje utječu na naše živote. U budućnosti, ključno će biti pronaći ravnotežu između inovacija i zaštite privatnosti, kako bi se osiguralo da korisnici mogu povjerenjem koristiti usluge umjetne inteligencije bez straha od izlaganja svojih osobnih informacija.
Ostavi komentar