从虚假信息到深度造假:威胁行为者如何操纵现实

Deep fakes 有望成为更突出的攻击媒介。以下是识别它们的方法。
什么是深度造假?
深度造假是指恶意将真实图像和视频替换为伪造的图像和视频以进行信息操纵的行为。要创建质量足以用于深度造假的图像、视频和音频,需要AI和ML。AI、ML和图像替换的这种使用不同于其他类型的信息处理,后者使用不那么极端的处理技术,例如信息的虚假陈述、隔离部分信息或以欺骗性方式编辑信息。Cato Networks 安全战略高级总监 Etay Maor 补充说:“更复杂的是,AI生成的文本(例如 GPT3)的最新进展和可访问性已经与deepfakes(作为概念证明)结合使用,以创建交互式、人形对话机器人”
Deep Fakes 是什么样子的?
深度造假有各种形状和大小。有些更简单,有些更高级。一些最流行的深度造假例子是:
换脸
换脸是将视频或图像中的人脸从一个人替换为另一个人的行为。换脸需要专门的软件,但不一定要基于先进的技术——今天甚至可以找到支持换脸的移动应用程序。移动应用程序中可用的面部交换通常仅限于简单的用例,例如在电影场景中用户的照片和演员的面部之间进行交换。

确实存在更高级的面部交换,但它需要更多的模型训练和代码,因此需要GPU,这既昂贵又占用资源。在此视频中可以看到一个更高级的换脸深度伪造的示例,其中汤姆克鲁斯与主持人的脸互换:

这个Tom Cruise换脸需要在GPU上进行两个小时的训练以及几天的专业视频编辑后期处理。这听起来可能很多,但它也被认为是比其他人更简单的交换,因为主持人的发型与克鲁斯相似,可以模仿他的声音,这意味着需要更少的培训和后期处理。
木偶大师(口型同步)
“Puppet Master”深假是一种操纵人的嘴巴运动图像的技术,使该人看起来好像在说他们实际上没有说过的话。与在新的交换面孔上训练模型的换脸相比,“Puppet Master”在原始图像的脸上训练模型,特别是在嘴部动作上。
这是它的样子:

声音的
第三种突出的深度伪造类型是基于音频的。Audio deep fakes是一种音频文件,它采用真人的声音并使其听起来像是在说他们从未说过的话。音频深度伪造是通过获取音频文件、为声音分配注释、根据注释训练ML模型以将声音与文本相关联然后生成新的音频文件来创建的。
深度造假与廉价修复
并非所有修改过的图像或音频都是深度造假。深度造假是使用AI合成或修改的媒体,而廉价修复是使用低技术方法合成或修改的媒体,这很容易被发现。他们经常被扭曲并且被明显地操纵了。这是一个便宜的修复程序的样子:

深度造假的网络风险
Deep fakes变得更加真实和容易获得,而且它们的创建速度也比以往任何时候都快。这使它们成为武器化的强大工具。因此,它们对企业和国家构成风险。它们可用于网络犯罪、社会工程、欺诈、威胁行为国家影响外国行动等。
例如,deep fake被用来模仿CEO的声音,并说服一位高管将243,000美元电汇到一个诈骗账户。Cato Networks的Etay Maor “基于对所用语言的简单分析,企业电子邮件攻击和网络钓鱼攻击变得越来越难检测。需要一种整体方法,例如由单一供应商 SASE 解决方案提供的方法,它可以在不同的多个阻塞点检测攻击,而不是依赖注定失败的孤立点产品”。在另一起案件中,深度造假被作为儿童监护案件的证据。
深度造假也可用于传播虚假信息,即虚假信息传播以影响公众舆论或掩盖真相。例如,深度造假可用于冒充世界领导人并引发攻击,或冒充 CEO 并操纵公司股价。在其他情况下,深度造假可以实现似是而非的否认,在这种情况下,人们可以通过声称它们是深度造假来否认所有媒体来源,这会造成社会信任的破坏。
最后,deep fake可用于诽谤,即损害某人的良好声誉。例如,通过制作复仇色情片。
如何检测深度造假
准确检测深度造假的方法主要有两类:
- 低水平检测方法
- 高级检测方法
低水平检测方法
低级检测方法依赖于ML模型,这些模型经过训练可以识别通过深度伪造生成过程引入的伪影或像素化。人眼可能无法察觉这些伪影,但在真实图像和深度伪造图像上训练的模型能够检测到它们。

高级检测方法
高级检测方法使用可以识别语义上有意义的特征的模型。这些包括不自然的动作,如眨眼、头部姿势或独特的举止,以及音素-语音不匹配。

今天,这些检测方法被认为是准确的。然而,随着深度造假技术的改进和变得更加复杂,预计它们会变得不那么有效,需要更新和改进。除了这些技术之外,我们每个人都可以通过验证我们收到的视频和图像的媒体来源来帮助检测深度造假。
本文来源于Lonely Blog -全球网络安全资讯平台, 转载请注明出处: https://blog.wuhao13.xin/4711.html