深度伪造“攻防战”:如何用AI一秒识破“AI换脸术”
澎湃新闻记者 邵文
作为引领第四次科技革命的战略性技术,人工智能给社会建设和经济发展带来了重大而深远的影响。但作为前沿创新技术,数据隐私、技术滥用等伴生安全问题也正给社会公共治理带来严峻挑战,其中围绕深度伪造的伦理和法律争议一直是公众高度关注的热点话题。
随着深度合成技术不断演进迭代,制作一段高逼真度的虚假音视频成本愈加降低,但其却可以借助社交媒体等平台短时间风靡互联网。对于这样一种技术,如果不进行规制,无疑将产生可怕的后果。
在上海举行的2021世界人工智能大会上,一个能快速识破AI换脸术的产品——DeepReal深度伪造内容检测平台发布。其能够通过研究深度伪造内容和真实内容的表征差异性辨识、不同生成途径的深度伪造内容一致性特征挖掘等问题,快速、精准地对多种格式与质量的图像进行真伪鉴别。
这个检测平台由依托清华大学人工智能研究院设立的人工智能企业——北京瑞莱智慧科技有限公司(简称RealAI)研发。
RealAI由清华大学人工智能研究院院长张钹院士、清华大学人工智能研究院基础理论研究中心主任朱军教授共同担任首席科学家,有人工智能安全平台RealSafe(针对AI系统的防火墙与杀毒软件);隐私保护计算平台RealSecure(通过打通数据孤岛,将计算环节移动到数据端,实现数据安全共享流通);深度合成内容检测平台DeepReal(快速、精准地对多种格式与质量的视频和图片进行真伪鉴别)等产品。
RealAI副总裁唐家渝透露,针对深度伪造技术的防范,RealAI目前已与工信部、公安部、国家互联网应急中心、工信安全中心、中国信通院、公安三所等多家机构展开深入的项目合作。
深度伪造,也被译作深度造假,译自英语中的Deepfake,其是计算机的深度学习(Deep learning)和伪造(Fake)的组合,出现于人工智能和机器学习技术时代。通俗理解就是把图片和声音输入机器学习的算法,从而可以轻易地进行面部操作(Face manipulation)——把一个人的脸部轮廓和表情放置在其他任何一个人的脸上,同时利用对声音的逼真处理,制造出实为合成却看似极真的视频。
2019年国内红极一时的换脸软件ZAO就是公众最为熟知的应用,用户只需上传一张照片,就能秒变戏精,甚至还能与偶像同台飙戏,效果极其逼真。不久前,短视频领域出现的蚂蚁呀嘿热潮,其基础也是深度伪造技术。
凭借极强的娱乐性与传播性,深度伪造技术一路走红。但同时,低门槛、高效率、高质量的特性,使其被大规模滥用于伪造身份、混淆视听,以实现网络欺诈、虚假宣传与操纵舆论等目的。
7月9日,北京瑞莱智慧科技有限公司首席执行官田天在上海世界人工智能大会演讲时明确指出,人工智能产业正进入高质量发展阶段,以深度伪造为代表各类安全问题层出不穷,亟待解决。
与传统图像视频处理技术相比,深度伪造技术具有门槛低、效率高、质量好的特点,所以它也被探索用于影视、医疗、虚拟现实等商业,比如在影视后期制作中,表情操纵、全脸替换等深度合成技术可以被用于影视剧本地化嘴型修改、虚拟IP打造等场景中。
然而,与正面效应相比,这些特性也同步放大了潜在威胁和安全隐患。目前,深度伪造的技术门槛正大幅降低,网络上充斥着大量伪造教程和开源可用的计算机程序,即便是不具备专业算法能力的普通用户,也可以在很短时间内轻松上手。尤其依托深度学习算法特性,在海量图像和视频数据的驱动下,深度合成技术不断演进迭代,仿真精度不断得到提升。所以,制作一段高逼真度的虚假音视频成本极低,却可以借助社交媒体等平台短时间风靡互联网。对于这样一种技术,如果不进行规制,将产生可怕的后果。
深度伪造技术的大规模滥用正侵害到社会公众的合法权益。比如深度伪造技术最常见的非法运用方式,将一些知名歌星、影星等公众人物的脸移花接木到色情明星身上,伪造色情片非法牟利,或者是伪造恶搞视频,这对个人名誉权与肖像权构成严重侵害。
其次是公众财产安全,不法分子可以利用漏洞劫持手机识别摄像头,利用照片活化、表情操纵等深度伪造技术冒充机主,进而对机主的微信好友实行转账诈骗。同样的,电信诈骗中也有类似利用语音伪造技术的案例。
不仅如此,深度伪造还将会对社会安全和国家安全造成威胁。例如,借助互联网平台捏造虚假新闻、炮制政治谣言,深度伪造技术大大增加了网络内容监管的复杂性,也带来了社会信任危机与网络政治安全风险。在病毒式传播的深度伪造视背后,可能蕴藏着操纵社会舆论、激化社会矛盾与扰乱正常社会经济秩序等系统性的危害。
比如公安机关、司法机关的图像鉴别工作,深度伪造技术的出现将导致举证工作存在风险。田天在演讲中补充道,深度伪造技术也可能成为国家之间发起虚假信息战争的最新武器,抹黑政治人物、伪造政治制度和破坏国家间关系,甚至在未来军事战场上损毁特定军事或情报行动。在这种背景下,国内外政府高度重视,都出台了相关的监管制度。
DeepReal检测结果展示:红色框代表判断为虚假人脸,绿色框代表判断为真实人脸
检测准确率无疑是衡量该平台价值最为重要的指标。据唐家渝介绍,检测效果主要受到两个因素的影响:数据集多元化程度和算法可靠程度。DeepReal深度伪造检测平台算法基于大数据量进行训练和测试,截至目前,数据量已达到千万级,数据集已覆盖三大类,包括:学术深伪数据集、网络深伪数据集和自研深伪数据集。同时,通过结合贝叶斯学习框架和深度神经网络,来估计模型在预测新样本时的不确定性。以上,有效保障了DeepReal深伪检测算法的泛化能力。
在测试结果方面,DeepReal在学术数据集和ZAO等主流方式生成的网络数据集中,已达到99%以上的准确率。而在实际应用中,DeepReal的检测准确率也已达到业界顶尖水平,远超 Facebook此前举办的Deepfake检测挑战赛所公布的最好成绩。
天下武功,唯快不破。超高的准确度,还需要速度来支撑。DeepReal深度伪造内容检测平台,可实现每帧画面的检测时间仅用时30毫秒。同时,还支持横向拓展与集群部署。检测完毕,平台还支持生成检测报告。
DeepReal深度伪造内容检测平台检测报告示意图
李跃群
-
上一篇
发布者展示换脸为成龙的实时效果和软件界面
北京岳成律师事务所高级合伙人岳屾山律师表示,这样的换脸直播用于公开传播,可能涉嫌侵犯相关明星艺人的肖像权,如果涉及直播带货等商业行为,会成为加重情节。
岳屾山律师说:只要是没有经过肖像权人的同意,在直播当中通过技术手段把自己的脸换成了明星的脸,这个其实就是对明星的肖像的一种侵权。接下来根据不同的情况,承担的后果可能会不同。如果只是在娱乐,不涉及盈利行为,也是属于一种侵权,在赔偿的时候可能会考虑这个情节。但如果把明星的肖像用于带货直播,那么属于是一种商业行为,在赔偿数额上一定会给予一些考虑的。包括主观恶性、过错程度比较大,因此获利了,赔偿的损失的数额可能就会更高一些。
在知名艺人工作室从事宣传工作的袁女士表示,担心相关技术被用于推销假冒伪劣产品,损害消费者权益,也影响艺人的形象。
袁女士表示:我经常刷一些平台都会看到。还是有一定的欺骗性的,如果不仔细辨认的话,就会认为是明星艺人本人,这一点我觉得还挺可怕的,万一卖的东西拿回去了以后货不对板,或者有一些更严重的问题,消费者就会觉得‘这个东西我是看着谁谁谁的脸去买的’,或者说‘我是进了谁的直播间去买的’。
记者注意到,一些使用换脸技术的直播并不会直接提到相关明星艺人的名字,但也不会主动声明或者否认。
岳屾山律师表示:如果用明星的脸去带货,然后还没有声明,这个其实是涉嫌欺诈行为,或者说是虚假宣传行为,让公众误以为这就是明星在带货。如果说货品本身不好,或者带货中说的一些话或是一些行为导致公众对明星产生一些负面评价的时候,还可以主张名誉权的侵权责任。这种肖像侵权,是属于肖像权人向司法机关去主张民事责任。但是如果涉嫌到了虚假宣传,涉及了不正当竞争行为的话,市场监督管理部门是要给予行政处罚的。
从事艺人宣传工作的袁女士认为,针对相关行为搜集证据和维权的成本比较高。而只要冒用了明星艺人的面部特征,不管是否提及姓名,侵权影响都类似。对于部分用户来说,即便有一行小字标识,也不一定能起到提醒作用。
说实话是没有差别的,因为他本质上还是用这个明星的脸去做文章。如果我负责的明星艺人摊上了这个事儿,其实维权成本特别大,并且效果可能没那么好。我们也不可能每天都去发律师函,发也发不过来,甚至有的时候可能要找到侵权人都很费劲。袁女士说。
发布者展示实时换脸效果
AI换脸明星直播带货教程热传:平台如何管控有何侵权风险
央广网北京5月23日消息(总台中国之声记者白杰戈)通过人工智能(AI)手段为视频中的人物换脸,这种技术已经从编辑录制好的视频,发展到可以实时动态修改直播画面。最
-
下一篇
全联并购公会信用管理委员会专家安光勇对《中国消费者报》记者表示:
目前AI换脸技术主要通过深度学习和计算机视觉技术实现。它使用了深度神经网络来分析和识别视频中的人脸,并将一个人的脸部特征映射到另一个人的脸上。
在微信视频 中,犯罪分子可能会通过发送特制的视频或使用特定的换脸应用程序,将自己的脸替换为受害者的脸,以获取对方的信任并实施诈骗行为。
网络诈骗不断更新咋办?
安光勇表示,换脸技术的成熟度随着时间的推移在不断提高,在某些情况下可以产生逼真的结果,但仍然存在一些瑕疵,比如细节不完美或者在某些情况下可能显得不自然。
10分钟骗走430万元!专家教你识别“AI换脸”骗子
近日