Popularni trend AI umjetnosti u Gibli stilu, koji je započeo poslije nove verzije ChatGPT-a, izazvao je zabrinutost zbog privatnosti korisnika.
Stručnjaci upozoravaju da dijeljenje ličnih fotografija za generisanje AI slika može ugroziti privatnost korisnika.
AI kreacije u stilu Gibli animacija preplavile su društvene mreže – korisnici masovno dijele očaravajuće, bajkovite slike inspirisane animacijama Studija Gibli. Zahvaljujući nedavnom poboljšanju ChatGPT-a, sada je lako kreirati ilustracije koje izgledaju kao kadrovi iz filmova Hajaa Mijazakija. Ljudi pretvaraju sve – od filmskih scena do porodičnih fotografija – u prelijepe slike iz svijeta Gibli, piše idjtv.nova.rs.
I dok ovaj trend oduševljava internet zajednicu, stručnjaci za digitalnu bezbjednost dižu uzbunu: koliko zapravo plaćamo za zabavu sopstvenim podacima?
Platforma Proton, poznata po svom radu na privatnosti i digitalnoj bezbjednosti, objavila je na X mreži:
„Kada dijelite lične fotografije sa AI, gubite kontrolu nad načinom na koji se koriste. Ove slike se često koriste za obuku AI modela i mogu se koristiti za kreiranje uvredljivog sadržaja, ili čak kao sredstvo uznemiravanja.“
Proton takođe upozorava da mnogi modeli vještačke inteligencije, posebno oni koji generišu slike, koriste ogromne baze podataka za učenje. U ovim bazama, bez vašeg znanja ili dozvole, mogu se pronaći vaše fotografije ili slike koje na vas podsjećaju.
Britanska futuristkinja El Farel-Kingsli dodala je na X-u da slanje fotografija ili misli na AI alate može otkriti metapodatke, lokaciju, pa čak i osjetljive informacije – posebno kada su djeca u pitanju.
Ako je nešto besplatno, vi – i vaši podaci – ste proizvod. Ako vam to ne smeta, u redu, ali važno je biti svjestan.“
Nisu oni jedini koji se oglašavaju – sve veći broj aktivista za digitalnu privatnost izražava zabrinutost zbog OpenAI-jevog AI generatora u Gibli stilu. Tvrde da korišćenje ličnih fotografija za obuku vještačke inteligencije može dovesti do gubitka kontrole nad tim gdje, kako i zašto se ti podaci kasnije koriste.
Komentari (0)
POŠALJI KOMENTAR