Deepfake 视频对公众构成威胁
问题是有多少人意识到这是一个骗局,但为时已晚,但我们担心这个数字非常高。
Deepfake 录音甚至在人工智能出现之前就以我们今天所知的形式存在(ChatGPT、Bard、Bing、Midjourney...)。但随着大型语言模型的出现,这些录音变得异常真实。不法之徒利用这项先进技术达到邪恶目的只是时间问题。
他们选择了最好的目标。 MrBeast 以其奢华的 YouTube 视频而闻名,在视频中,他用昂贵的汽车、私人飞机、电话、房屋和类似的礼物来取悦他的粉丝和路人。 MrBeast 赠送几乎免费的 iPhone 15s 的情况也并不少见。就连恶意的人也下注了。假MrBeast敦促观众点击视频中的链接,但其幕后目的是窃取数据。
MrBeast 的深度伪造视频最近在 TikTok 上出现,它可能不仅对用户而且对平台造成了巨大损害,该平台现在将解决未来如何防止这种情况的问题。
MrBeast 并不是人工智能诈骗的唯一受害者。普京的形象过去也曾被滥用来传播虚假信息。
尽管名人是更有吸引力的目标,但普通人也面临风险。 BBC 记者 Matthew Amroliwala 和 Sally Bundock 也亲身经历过这一点。他们的形象被用来宣传金融骗局。在视频中,这位记者应该由地球上最富有的埃隆·马斯克主持,后者应该向他询问目前被认为最有利可图的投资机会。埃隆·马斯克过去也曾是深度伪造视频的受害者,据称他在视频中捐出了自己的财富并提供了有关加密货币的建议。
到目前为止,Meta(以前的 Facebook)在此类视频中附加了有关可能存在虚假信息的警告,这些视频是由 FullFact 组织发现的。后者的使命是检查新闻和社交媒体上出现的所有可能的违规行为。 Meta 的代表也发表了讲话。 “我们不允许在我们的平台上出现此类内容,并已立即将其删除。我们不断努力改进我们的系统,并鼓励任何看到他们认为违反我们政策的内容的人使用应用内工具进行举报。然后我们就可以研究它并采取行动。”
TikTok也介入此事,在MrBeast发布虚假视频几小时后便将其删除,并因违反其使用条款而封禁了该账号。TikTok在其政策中将此类“合成”视频列为违禁内容。
与此同时,真正的 MrBeast 呼吁 X 平台(以前的 Twitter)和其他平台回答这样的问题:他们是否为此类骗局的兴起做好了准备。
如何识别深度伪造录音?
尽管目前经典的网络钓鱼攻击和勒索软件攻击仍然是最常见也是最成功的攻击形式,但深度伪造和人工智能攻击可能会在一段时间内变得更加常见。
最近,就连汤姆·汉克斯也因为人工智能而不得不为自己辩护。他的照片被盗以宣传一项有争议的牙科计划。
人工智能系统只会变得更加先进。随着发展,人们对如何识别此类骗局的担忧将会增加。黄金法则是,如果您发现有人免费向您提供某些东西的视频、帖子或消息,尤其是通常需要大量金额的产品或服务,请保持怀疑。
MrBeast 的形象多少贬低了这条规则。正是因为他的视频中,参与者还争夺诱人的奖品,所以上述深度伪造视频很难被识别为骗局。
我们别无选择,只能始终小心并事先检查每一条信息。那些最细心的用户还会注意到其他一些可疑迹象,这些迹象可能表明这是一个骗局。
在 MrBeast 的剪辑中(您可以在 bit.ly/DeepfakeRN 上观看),攻击者使用了一位著名 YouTuber 的名字,并带有我们在官方个人资料中习惯使用的蓝色复选标记。如果您是 TikTok 的常客,您就会知道这种名称放置是不必要的,因为所有视频都已在 TikTok 徽标下方包含上传者的姓名。
就BBC记者而言,令人怀疑的原因更多在于语法方面。主持人把数字15念错了,而且“project”这个词的语调也异常。此外,还有一些很容易被忽略的细微语法错误(例如,把“was”和“were”用错)。随着录音技术日趋逼真,这些错误对于识别骗局将至关重要。在同一段录音中,很难看出埃隆·马斯克左眼上方多长了一只眼睛。眼睛、手指等细节在使用人工智能录制的音频中经常会出现失真,但对我们来说,这反而是一个避免灾难的机会。
法律专家也纷纷发声,对禁止此类视频表达了不同意见。如果深度伪造技术被禁止,也会损害使用特效制作的电影和剧集中的真实内容。
封面图片: 图片来自 rawpixel.com 在 Freepik 上

























