Poslovna rješenja
Računalstvo, telefonija
13.10.2023 10:00

Podijelite s drugima:

Udio

Deepfake videozapisi prijetnja su široj javnosti

Umjetna inteligencija (AI) nam može pomoći, ali može biti i prijetnja, čemu svjedoče i nedavni deepfake videi poznatog YouTubera pod imenom MrBeast koji je nesuđene korisnike oduševio novim telefonima iPhone 15 za samo dva dolara.
Deepfake videozapisi prijetnja su široj javnosti

Pitanje je koliko je ljudi prekasno shvatilo da je riječ o prijevari, ali bojimo se da je to vrlo velik broj.

Deepfake snimke postojale su i prije pojave umjetne inteligencije u obliku kakvom je danas poznajemo (ChatGPT, Bard, Bing, Midjourney...). No s pojavom velikih jezičnih modela te su snimke postale zastrašujuće realistične. Bilo je samo pitanje vremena kada će zlobnici upotrijebiti ovu naprednu tehnologiju u zle svrhe.

Izabrali su najbolju moguću metu. MrBeast je poznat po svojim ekstravagantnim YouTube videima u kojima obožavatelje i prolaznike oduševljava skupim automobilima, privatnim zrakoplovima, telefonima, kućama i sličnim poklonima. Scenarij u kojem bi MrBeast dijelio gotovo besplatne telefone iPhone 15 nije ni previše neobičan. Na to su se kladili i zlonamjerni ljudi. Lažni MrBeast pozivao je gledatelje da kliknu na poveznicu u videu, ali iza scene je bila namjera krađe podataka.

Deepfake video MrBeasta nedavno se pojavio na TikToku, gdje je vjerojatno prouzročio ogromnu štetu, ne samo korisnicima, već i platformi, koja će se sada uhvatiti u koštac s pitanjima o tome kako to spriječiti u budućnosti.

MrBeast nije jedina žrtva AI prijevara. Putinov imidž također je zlouporabljen u prošlosti za širenje lažnih informacija.

Iako su slavne osobe privlačnije mete, ugroženi su i obični smrtnici. BBC-jevi novinari Matthew Amroliwala i Sally Bundock također su to iskusili iz prve ruke. Njihova slika korištena je za promicanje financijske prijevare. U videu bi novinara trebao ugostiti najbogatiji Zemljanin Elon Musk koji bi ga trebao ispitivati o trenutno navodno najisplativijoj prilici za ulaganje. Elon Musk također je u prošlosti bio žrtva deepfake videa u kojima je navodno odavao svoje bogatstvo i davao savjete o kriptovalutama.

Do sada je Meta (bivši Facebook) takvim videima prilagala upozorenja o mogućim lažnim informacijama koje je otkrila organizacija FullFact. Potonji si je zadao misiju provjere svih mogućih nepravilnosti koje se pojavljuju u vijestima i na društvenim mrežama. Oglasio se i predstavnik Mete. “Ne dopuštamo takav sadržaj na našim platformama i odmah smo ga uklonili. Konstantno radimo na poboljšanju naših sustava i potičemo sve koji vide sadržaj za koji vjeruju da krši naša pravila da ga prijave pomoću alata u aplikaciji. Onda možemo to proučiti i poduzeti mjere."

Javil se je tudi TikTok, ki je lažni posnetek MrBeasta odstranil nekaj ur po objavi in blokiral račun, ki je kršil njihove pogoje uporabe. TikTok ima v svojem pravilniku tovrstne »sintetične« posnetke izpostavljene kot prepovedano vsebino.

U međuvremenu je pravi MrBeast pozvao platformu X (bivši Twitter) i druge platforme da odgovore na pitanje jesu li spremni na porast ovakvih prijevara.

Kako prepoznati deepfake snimke?

Iako su za sada klasični phishing napadi i napadi ransomwareom i dalje najčešći oblici napada te ujedno i najuspješniji, vjerojatno će doći razdoblje kada će deepfake i napadi umjetnom inteligencijom postati sve češći.

Nedavno se čak i Tom Hanks morao braniti zbog umjetne inteligencije. Njegova je slika ukradena kako bi se promovirao kontroverzni stomatološki plan.

AI sustavi samo će postati napredniji. S razvojem će se povećavati zabrinutost oko toga kako prepoznati takve prijevare. Zlatno pravilo je da budete sumnjičavi ako naiđete na video, objavu ili poruku u kojoj vam netko nudi nešto besplatno, pogotovo ako se radi o proizvodu ili usluzi za koje su obično potrebni veći iznosi.

Slika MrBeasta donekle obezvrjeđuje ovo pravilo. Upravo zbog njegovih videa, u kojima se sudionici natječu i za primamljive nagrade, spomenuti deepfake video bilo je teško prepoznati kao prijevaru.

Ne preostaje nam ništa drugo nego uvijek biti oprezni i provjeriti svaki podatak unaprijed. Oni najpažljiviji korisnici primijetit će i neke druge sumnjive znakove koji mogu ukazivati da se radi o prijevari.

Na MrBeastovu snimku (možete je pogledati na bit.ly/DeepfakeRN) napadači su uz plavu kvačicu na koju smo navikli sa službenih profila ubacili ime poznatog YouTubera. Ako ste česti korisnik TikToka, znate da ova vrsta postavljanja imena nije potrebna jer svi videozapisi već uključuju ime uploadara ispod TikTok logotipa.

V primeru novinarjev BBC-ja so bili razlogi za sumničavost bolj slovnične narave. Voditeljica napačno izgovori številko 15 in z nenavadno intonacijo izgovori besedo »project«. Prisotnih je še nekaj manjših slovničnih napak, ki pa jih lahko zelo hitro zgrešite (na primer napačna raba »was, were«). Ker bodo posnetki sčasoma postajali vse bolj realistični, bodo tovrstne napake pomembne za prepoznavo prevar. V istem posnetku se zelo težko opazi, da je Elon Musk dobil dodatno oko nad svojim levim očesom. Oči, prsti in podobne podrobnosti so pri posnetkih z umetno inteligenco pogosto iznakažene, za nas pa to predstavlja priložnost, da se izognemo katastrofi.

Oglasili so se tudi pravni strokovnjaki, ki so deljenega mnenja glede prepovedi tovrstnih posnetkov. V primeru, da bi prepovedali deepfake tehnologijo, bi oškodovali tudi pristno vsebino v filmih in serijah, ustvarjeno s posebnimi učinki.

Naslovna slika: Image by rawpixel.com na Freepiku


Zanima vas više o ovoj temi?
Elon Musk Facebook Kovnica Cvrkut umjetna inteligencija


Što drugi čitaju?

_okvir('