Novi trend ChatGPT karikatura - rizik za privatnost
Foto: Chat GPT
Društvo

Novi trend ChatGPT karikatura - rizik za privatnost

pre 1 sat Miljko Stojanović

Novi ChatGPT trend karikatura preplavljuje društvene mreže, a korisnici dele AI-kreirane slike svog posla i hobija.

ChatGPT karikature se prave unošenjem naizgled bezazlenog upita u AI alat: „Napravi karikaturu mene i mog posla na osnovu svega što znaš o meni.”

AI karikature su prilično kul, pa je lako videti zašto ljudi uskaču u ovaj viralni trend. Ali da bi napravio karikature, ChatGPT-u je potrebno mnogo podataka o vama, piše Forbes.

Sve to može delovati sasvim u redu, ali to takođe znači da ChatGPT-u predajete gomilu potencijalno osetljivih podataka - sve da biste učestvovali u viralnom trendu koji će uskoro biti zaboravljen. Ali ti podaci bi potencijalno mogli ostati zauvek dostupni, barem na platformama društvenih mreža na kojima ih objavite.

ChatGPT trend karikatura — rizik za privatnost

Ljudi već dele mnogo informacija o sebi putem društvenih mreža. Prakse zaštite privatnosti platformi kao što je Metin Facebook nisu nikakva tajna. Ali kada novi viralni trendovi poput karikature zahtevaju da koristite AI alate kao što je ChatGPT, a zatim to ponovo delite na društvenim mrežama, to je velika količina podataka.

„Svaki put kada se ovakvi trendovi pojave, ljudi su često brži da se priključe nego da se zapitaju šta se zapravo krije iza njih”, kaže za Forbes Džejk Mur, globalni savetnik za sajber bezbednost u kompaniji ESET.

Kada date fotografije i lične podatke četbotu kao što je ChatGPT, platforma „prikuplja sve te informacije i analizira ih”, kaže Mur. „Te informacije se skladište i koriste za treniranje ovih impresivnih modela, uz nejasne dugoročne namene.”

U trenutnoj pomami za AI karikaturama, korisnici „aktivno unose sve detaljnije lične informacije u generativne modele kako bi poboljšali rezultat”, kaže Met Konlon, izvršni direktor i suosnivač bezbednosne firme Cytidel. „Ako rezultat nije tačan, jednostavno dodaju više konteksta, efektivno trenirajući AI sistem visoko ličnim podacima.”

Iako unošenje podataka radi pravljenja ChatGPT karikature deluje bezazleno i zabavno, takvo ponašanje „pokreće ozbiljna pitanja u vezi sa privatnošću podataka i može povećati rizik od krađe identiteta u budućnosti”, upozorava Konlon. „Kada se te informacije jednom otpreme, nema garancije da mogu biti u potpunosti uklonjene ili kontrolisane.”

Kris Linel, pomoćnik direktora za privatnost podataka u konsultantskoj firmi Bridewell, upozorava da postoji rizik od „normalizovanja deljenja fotografija i detaljnih ličnih ili profesionalnih informacija sa AI alatima, bez potpunog razmatranja kako bi ti podaci mogli biti korišćeni ili zadržani.”

„Da bi generisao karikaturu, ChatGPT se oslanja na sadržaj koji korisnik aktivno dostavlja, kao što su otpremljene slike, upiti i opisne informacije. On ne pretražuje samostalno internet u potrazi za ličnim podacima o pojedincu, ali kvalitet rezultata može ostaviti utisak dubokog ličnog uvida zbog bogatstva podataka koje ljudi dostavljaju.”

Prema OpenAI politici privatnosti, dostavljeni sadržaj može se koristiti za pružanje i održavanje usluga, unapređenje i razvoj proizvoda i sprovođenje istraživanja. „Politika dozvoljava široko deljenje sa povezanim društvima i pružaocima usluga, i ne precizira uvek detaljne dalje slučajeve upotrebe”, kaže Linel.

Kada se slike ili lični podaci jednom podele na internetu, postoji i širi rizik, dodaje on: „Sadržaj može biti kopiran, ponovo objavljen ili preuzet (scraped) izvan svog prvobitnog konteksta i kontrole.”

Kao odgovor, OpenAI me je uputio na FAQ o memoriji, koji pomaže u kontroli prikupljanja podataka na ChatGPT-u. Možete izabrati da opcije „referenciraj sačuvana sećanja” i „referenciraj istoriju ćaskanja” budu uključene ili isključene i možete ih promeniti u bilo kom trenutku, uključujući upravljanje konkretnim sačuvanim sećanjima. Ova opcija je podrazumevano isključena za korisnike u Velikoj Britaniji i EU.

Ako odlučite da se ne prijavite ili su ove postavke isključene, ChatGPT neće koristiti prethodne razgovore. Takođe možete pitati šta pamti ili preći na Privremeni čet (Temporary Chat) za sesije bez memorije.

Kako da napravite ChatGPT karikaturu uz više privatnosti

Pravljenje ChatGPT karikature može delovati zabavno, ali treba da razmislite pre nego što se priključite trendu. Najpre pročitajte OpenAI-jevu politiku privatnosti za svoj region kako biste bili svesni koje podatke prikuplja, piše Forbes.

Ako i dalje želite to da uradite, možete preduzeti neke korake da povećate svoju privatnost. Možete napraviti svoju sliku bez davanja ChatGPT-u pristupa bilo kakvim stvarnim fotografijama i ograničite podatke koje delite.

Kako biste smanjili rizik po privatnost, Oliver Simonet, vodeći istraživač sajber bezbednosti u kompaniji CultureAI, savetuje korisnike da urade isto i izbegavaju otpremanje pravih fotografija sebe. „Neka upiti budu opšti i pregledajte politike i postavke zadržavanja podataka. Tipično pravilo je da, ako nešto ne biste javno podelili, verovatno ne želite da ga uključite u AI upit.”

Korisnici mogu smanjiti rizik tako što neće otpremati fotografije ili osetljive lične podatke, proveriće postavke privatnosti i upotrebe podataka i isključiti korišćenje podataka za unapređenje modela tamo gde je to dostupno, kaže Linel. „Na kraju, ako se neko ne oseća prijatno zbog načina na koji bi njegovi podaci ili lik mogli biti obrađeni, najsigurnija opcija je da uopšte ne koristi ove funkcije.”

Trend ChatGPT karikatura nije prvi te vrste, niti će biti poslednji. Važno je uzeti u obzir rizike unošenja svojih podataka u AI alate poput ChatGPT-a i, ako već morate da ga isprobate, pokušajte da se maksimalno zaštitite ograničavanjem onoga što delite.

Izvor: N1

Podeli vest
O autoru
Miljko Stojanović

Kratka biografija autora trenutno nije dostupna.

GLAS ZAJEČARA

Sva prava zadržana - "Kompas Media", Anđela Risantijević, PR, Zaječar, Varšavska 10. Preuzimanje sadržaja sa informativnog portala, bilo u celosti ili delimično bez prethodne saglasnosti "Kompas Media" predstavlja povredu autorskih prava.