商业解决方案
计算、电话
13.10.2023 10:00

与他人分享:

分享

Deepfake 视频对公众构成威胁

人工智能(AI)可以带来帮助,但也可能带来威胁,著名 YouTuber MrBeast 最近发布的深度伪造视频就证明了这一点,他仅需 2 美元就向毫无戒心的用户展示了新款 iPhone 15 手机。
Deepfake 视频威胁公众

问题是有多少人意识到这是一个骗局,但为时已晚,但我们担心这个数字非常高。

Deepfake 录音甚至在人工智能出现之前就以我们今天所知的形式存在(ChatGPT、Bard、Bing、Midjourney...)。但随着大型语言模型的出现,这些录音变得异常真实。不法之徒利用这项先进技术达到邪恶目的只是时间问题。

他们选择了最好的目标。 MrBeast 以其奢华的 YouTube 视频而闻名,在视频中,他用昂贵的汽车、私人飞机、电话、房屋和类似的礼物来取悦他的粉丝和路人。 MrBeast 赠送几乎免费的 iPhone 15s 的情况也并不少见。就连恶意的人也下注了。假MrBeast敦促观众点击视频中的链接,但其幕后目的是窃取数据。

MrBeast 的深度伪造视频最近在 TikTok 上出现,它可能不仅对用户而且对平台造成了巨大损害,该平台现在将解决未来如何防止这种情况的问题。

MrBeast 并不是人工智能诈骗的唯一受害者。普京的形象过去也曾被滥用来传播虚假信息。

尽管名人是更有吸引力的目标,但普通人也面临风险。 BBC 记者 Matthew Amroliwala 和 Sally Bundock 也亲身经历过这一点。他们的形象被用来宣传金融骗局。在视频中,这位记者应该由地球上最富有的埃隆·马斯克主持,后者应该向他询问目前被认为最有利可图的投资机会。埃隆·马斯克过去也曾是深度伪造视频的受害者,据称他在视频中捐出了自己的财富并提供了有关加密货币的建议。

到目前为止,Meta(以前的 Facebook)在此类视频中附加了有关可能存在虚假信息的警告,这些视频是由 FullFact 组织发现的。后者的使命是检查新闻和社交媒体上出现的所有可能的违规行为。 Meta 的代表也发表了讲话。 “我们不允许在我们的平台上出现此类内容,并已立即将其删除。我们不断努力改进我们的系统,并鼓励任何看到他们认为违反我们政策的内容的人使用应用内工具进行举报。然后我们就可以研究它并采取行动。”

Javil se je tudi TikTok, ki je lažni posnetek MrBeasta odstranil nekaj ur po objavi in blokiral račun, ki je kršil njihove pogoje uporabe. TikTok ima v svojem pravilniku tovrstne »sintetične« posnetke izpostavljene kot prepovedano vsebino.

与此同时,真正的 MrBeast 呼吁 X 平台(以前的 Twitter)和其他平台回答这样的问题:他们是否为此类骗局的兴起做好了准备。

如何识别深度伪造录音?

尽管目前经典的网络钓鱼攻击和勒索软件攻击仍然是最常见也是最成功的攻击形式,但深度伪造和人工智能攻击可能会在一段时间内变得更加常见。

最近,就连汤姆·汉克斯也因为人工智能而不得不为自己辩护。他的照片被盗以宣传一项有争议的牙科计划。

人工智能系统只会变得更加先进。随着发展,人们对如何识别此类骗局的担忧将会增加。黄金法则是,如果您发现有人免费向您提供某些东西的视频、帖子或消息,尤其是通常需要大量金额的产品或服务,请保持怀疑。

MrBeast 的形象多少贬低了这条规则。正是因为他的视频中,参与者还争夺诱人的奖品,所以上述深度伪造视频很难被识别为骗局。

我们别无选择,只能始终小心并事先检查每一条信息。那些最细心的用户还会注意到其他一些可疑迹象,这些迹象可能表明这是一个骗局。

在 MrBeast 的剪辑中(您可以在 bit.ly/DeepfakeRN 上观看),攻击者使用了一位著名 YouTuber 的名字,并带有我们在官方个人资料中习惯使用的蓝色复选标记。如果您是 TikTok 的常客,您就会知道这种名称放置是不必要的,因为所有视频都已在 TikTok 徽标下方包含上传者的姓名。

V primeru novinarjev BBC-ja so bili razlogi za sumničavost bolj slovnične narave. Voditeljica napačno izgovori številko 15 in z nenavadno intonacijo izgovori besedo »project«. Prisotnih je še nekaj manjših slovničnih napak, ki pa jih lahko zelo hitro zgrešite (na primer napačna raba »was, were«). Ker bodo posnetki sčasoma postajali vse bolj realistični, bodo tovrstne napake pomembne za prepoznavo prevar. V istem posnetku se zelo težko opazi, da je Elon Musk dobil dodatno oko nad svojim levim očesom. Oči, prsti in podobne podrobnosti so pri posnetkih z umetno inteligenco pogosto iznakažene, za nas pa to predstavlja priložnost, da se izognemo katastrofi.

Oglasili so se tudi pravni strokovnjaki, ki so deljenega mnenja glede prepovedi tovrstnih posnetkov. V primeru, da bi prepovedali deepfake tehnologijo, bi oškodovali tudi pristno vsebino v filmih in serijah, ustvarjeno s posebnimi učinki.

封面图片: Image by rawpixel.com on Freepik


对这个主题的更多内容感兴趣吗?
埃隆·马斯克 Facebook 薄荷 叽叽喳喳 人工智能


其他人在读什么?

_框架('