Deepfake videozapisi prijetnja su široj javnosti
Pitanje je koliko je ljudi prekasno shvatilo da je riječ o prijevari, ali bojimo se da je to vrlo velik broj.
Deepfake snimke postojale su i prije pojave umjetne inteligencije u obliku kakvom je danas poznajemo (ChatGPT, Bard, Bing, Midjourney...). No s pojavom velikih jezičnih modela te su snimke postale zastrašujuće realistične. Bilo je samo pitanje vremena kada će zlobnici upotrijebiti ovu naprednu tehnologiju u zle svrhe.
Izabrali su najbolju moguću metu. MrBeast je poznat po svojim ekstravagantnim YouTube videima u kojima obožavatelje i prolaznike oduševljava skupim automobilima, privatnim zrakoplovima, telefonima, kućama i sličnim poklonima. Scenarij u kojem bi MrBeast dijelio gotovo besplatne telefone iPhone 15 nije ni previše neobičan. Na to su se kladili i zlonamjerni ljudi. Lažni MrBeast pozivao je gledatelje da kliknu na poveznicu u videu, ali iza scene je bila namjera krađe podataka.
Deepfake video MrBeasta nedavno se pojavio na TikToku, gdje je vjerojatno prouzročio ogromnu štetu, ne samo korisnicima, već i platformi, koja će se sada uhvatiti u koštac s pitanjima o tome kako to spriječiti u budućnosti.
MrBeast nije jedina žrtva AI prijevara. Putinov imidž također je zlouporabljen u prošlosti za širenje lažnih informacija.
Iako su slavne osobe privlačnije mete, ugroženi su i obični smrtnici. BBC-jevi novinari Matthew Amroliwala i Sally Bundock također su to iskusili iz prve ruke. Njihova slika korištena je za promicanje financijske prijevare. U videu bi novinara trebao ugostiti najbogatiji Zemljanin Elon Musk koji bi ga trebao ispitivati o trenutno navodno najisplativijoj prilici za ulaganje. Elon Musk također je u prošlosti bio žrtva deepfake videa u kojima je navodno odavao svoje bogatstvo i davao savjete o kriptovalutama.
Do sada je Meta (bivši Facebook) takvim videima prilagala upozorenja o mogućim lažnim informacijama koje je otkrila organizacija FullFact. Potonji si je zadao misiju provjere svih mogućih nepravilnosti koje se pojavljuju u vijestima i na društvenim mrežama. Oglasio se i predstavnik Mete. “Ne dopuštamo takav sadržaj na našim platformama i odmah smo ga uklonili. Konstantno radimo na poboljšanju naših sustava i potičemo sve koji vide sadržaj za koji vjeruju da krši naša pravila da ga prijave pomoću alata u aplikaciji. Onda možemo to proučiti i poduzeti mjere."
TikTok se također umiješao, uklonivši lažni video MrBeast-a nekoliko sati nakon što je objavljen i blokiravši račun zbog kršenja uvjeta korištenja. TikTok u svojoj politici takve "sintetičke" videozapise navodi kao zabranjeni sadržaj.
U međuvremenu je pravi MrBeast pozvao platformu X (bivši Twitter) i druge platforme da odgovore na pitanje jesu li spremni na porast ovakvih prijevara.
Kako prepoznati deepfake snimke?
Iako su za sada klasični phishing napadi i napadi ransomwareom i dalje najčešći oblici napada te ujedno i najuspješniji, vjerojatno će doći razdoblje kada će deepfake i napadi umjetnom inteligencijom postati sve češći.
Nedavno se čak i Tom Hanks morao braniti zbog umjetne inteligencije. Njegova je slika ukradena kako bi se promovirao kontroverzni stomatološki plan.
AI sustavi samo će postati napredniji. S razvojem će se povećavati zabrinutost oko toga kako prepoznati takve prijevare. Zlatno pravilo je da budete sumnjičavi ako naiđete na video, objavu ili poruku u kojoj vam netko nudi nešto besplatno, pogotovo ako se radi o proizvodu ili usluzi za koje su obično potrebni veći iznosi.
Slika MrBeasta donekle obezvrjeđuje ovo pravilo. Upravo zbog njegovih videa, u kojima se sudionici natječu i za primamljive nagrade, spomenuti deepfake video bilo je teško prepoznati kao prijevaru.
Ne preostaje nam ništa drugo nego uvijek biti oprezni i provjeriti svaki podatak unaprijed. Oni najpažljiviji korisnici primijetit će i neke druge sumnjive znakove koji mogu ukazivati da se radi o prijevari.
Na MrBeastovu snimku (možete je pogledati na bit.ly/DeepfakeRN) napadači su uz plavu kvačicu na koju smo navikli sa službenih profila ubacili ime poznatog YouTubera. Ako ste česti korisnik TikToka, znate da ova vrsta postavljanja imena nije potrebna jer svi videozapisi već uključuju ime uploadara ispod TikTok logotipa.
U slučaju BBC-jevih novinara, razlozi za sumnju bili su više gramatički. Voditelj krivo izgovara broj 15 i riječ „project“ s neobičnom intonacijom. Postoji i nekoliko manjih gramatičkih pogrešaka koje se vrlo brzo mogu previdjeti (na primjer, netočna upotreba „was, were“). Kako snimke s vremenom postaju realističnije, takve će pogreške biti važne za prepoznavanje prijevara. Na istoj snimci vrlo je teško vidjeti da Elon Musk ima dodatno oko iznad lijevog oka. Oči, prsti i slični detalji često su iskrivljeni na snimkama korištenjem umjetne inteligencije, ali za nas to predstavlja priliku da izbjegnemo katastrofu.
Pravni stručnjaci također su se oglasili, izražavajući različita mišljenja o zabrani takvih snimaka. Ako bi se deepfake tehnologija zabranila, to bi također naštetilo autentičnom sadržaju u filmovima i serijama stvorenim sa specijalnim efektima.
Naslovna slika: Slika s rawpixel.com na Freepiku


























