Prevara pomoću deepfake tehnologije postala je "industrijska", navodi se u analizi koju su objavili stručnjaci za vještačku inteligenciju, piše Gardijan.
Alati za pravljenje prilagođenih, čak i personalizovanih prevara – koji koriste, na primjer, deepfake snimke švedskih novinara ili predsjednika Kipra – više nijesu nišni, već su jeftini i lako se mogu koristiti u velikim razmjerama, navodi se u analizi "AI Incident Databasea".
U analizi je zabilježeno više od desetak nedavnih primjera "lažnog predstavljanja radi zarade", uključujući deepfake video premijera Zapadne Australije Roberta Kuka koji promoviše investicionu šemu, kao i deepfake ljekare koji reklamiraju kreme za kožu.
Ovi primjeri dio su trenda u kojem prevaranti koriste široko dostupne AI alate kako bi sprovodili sve ciljanije prevare. Prošle godine, finansijski službenik u jednoj multinacionalnoj kompaniji sa sjedištem u Singapuru uplatio je skoro 500.000 dolara prevarantima, vjerujući da učestvuje u video-pozivu sa rukovodstvom kompanije. Procjenjuje se da su potrošači u Ujedinjenom Kraljevstvu izgubili 9,4 milijarde funti (10,8 milijardi eura) zbog prevara u devet mjeseci do novembra 2025. godine.
"Mogućnosti su iznenada dostigle nivo na kojem gotovo svako može da proizvodi lažni sadržaj", rekao je Sajmon Majlus, istraživač s MIT-a koji radi na projektu povezanom s "AI Incident Databaseom".
On je izračunao da su "prevare, obmane i ciljane manipulacije" činile najveći udio incidenata prijavljenih bazi podataka u 11 od posljednjih 12 mjeseci.
"Postalo je toliko dostupno da praktično više ne postoji barijera za ulazak", rekao je.
"Razmjeri se mijenjaju", kazao je Fred Hajding, istraživač s Harvarda koji proučava prevare zasnovane na AI tehnologiji.
"Postaje toliko jeftino da gotovo svako može da ga koristi. Modeli postaju zaista dobri – i napreduju mnogo brže nego što većina stručnjaka misli."
Početkom januara, Džejson Rebholc, izvršni direktor kompanije Evoke, koja se bavi AI bezbjednošću, objavio je oglas za posao na LinkedInu i gotovo odmah ga je kontaktirala nepoznata osoba iz njegove mreže, preporučivši kandidata.
U roku od nekoliko dana, razmjenjivao je mejlove s osobom koja je, makar na papiru, djelovala kao izuzetno talentovan inženjer.
"Pogledao sam CV i pomislio: ovo je stvarno dobar CV. I onda sam, iako je bilo nekih crvenih zastavica, odlučio da obavim razgovor", rekao je Rebholc, navodi Gardijan.
Tada su stvari postale čudne. Mejlovima kandidata je često bio označen kao neželjena pošta. CV je imao neobične detalje. Ipak, Rebholc je ranije imao iskustva s neobičnim kandidatima i odlučio je da nastavi s intervjuom.
Kada je započeo poziv, video kandidata se pojavio tek nakon skoro minut.
"Pozadina je bila ekstremno lažna. Izgledalo je baš, baš lažno. Sistem se mučio s ivicama oko osobe – dijelovi tijela su se pojavljivali i nestajali… A kada sam gledao lice, bilo je previše zamućeno oko ivica", rekao je.
Rebholc je ipak nastavio razgovor, ne želeći da se suoči s neprijatnošću da direktno pita kandidata da li je, zapravo, riječ o sofisticiranoj prevari. Nakon toga, snimak je poslao kontaktu u firmi koja se bavi detekcijom deepfake sadržaja, koji mu je potvrdio da je video snimak kandidata generisan pomoću AI-ja. Kandidat je odbijen.
Rebholc i dalje ne zna šta je prevarant želio – inženjersku platu ili poslovne tajne. Iako je bilo izvještaja o sjevernokorejskim hakerima koji pokušavaju da se zaposle u Amazonu, Evoke je startap, a ne veliki globalni igrač.
"Ako se ovo dešava nama, onda se dešava svima", rekao je Rebholc.
Hajding upozorava da najgore tek dolazi. Trenutno je tehnologija kloniranja glasa izuzetno dobra – što prevarantima olakšava da se, na primjer, telefonom predstave kao unuk ili unuka u nevolji. Deepfake video snimci, s druge strane, još uvijek imaju prostora za unapređenje.
To bi moglo imati ekstremne posljedice: za zapošljavanje, izbore i društvo u cjelini.
Hajding dodaje: "To će biti najveći problem – potpuni gubitak povjerenja u digitalne institucije, ali i u institucije i materijal uopšte."
Bonus video: