“AI换脸”技术以假乱真?给生活会带来哪些利与弊
(原标题:反AI变脸技术通过有效预测眼睛的状态,准确率达99% AI换脸也有bug,看看人物眨没眨眼)
近日,知名视频网站blibli流传出一段视频:电影《射雕英雄传》(1994年版)朱茵主演的黄蓉被视频制作者通过AI换脸术处理成了杨幂的脸,神态表情如同朱茵饰演的黄蓉一样生动俏皮,毫无违和感,顿时引起网民热议,以至于微博话题点击量飙升至1.1亿。
所谓AI换脸术,是基于人工智能的人体图像合成技术,生成的假脸(通称DeepFake)。那么,这个技术是怎么做到如此出神入化?它给人们的生活会带来哪些利与弊?有何办法对其辨别?避免潜在风险?
强调以假乱真
让黄蓉秒变脸的视频制作者表示,这么做仅是用于技术交流。其实,AI换脸技术已然在我们身边荡起涟漪。
今年春节期间,科幻影片《疯狂的外星人》中外星人逼真的神态表情,是由演员徐峥通过动作捕捉出演完成;美国动作电影《阿丽塔》用AI科技加持,为观众呈现闪亮大眼的战斗萝莉阿丽塔动感十足;经典影片《速度与激情7》中,AI换脸还原了因车祸意外去世的主演保罗·沃克的音容笑貌,让整部影片多了一丝你永远与我们同在的温暖。
不同于戏曲换脸的变幻,AI换脸术强调以假乱真。简单说,AI换脸就是将目标人物各个角度的人脸照片一帧帧贴在被换对象的视频画面上,生成假脸视频,倘若能达到朱茵or杨幂?傻傻分不清!的效果,即大功告成。
从技术层面讲,首先要进行数据采集,捕捉不同的脸姿态、表情、角度和光照的人脸图片;再者进行数据处理,包括采集数据标准化及分割算法处理等;硬件上需要一个较好的GPU,家用计算机可能会吃力一些,制作需要几个小时甚至数十小时,但是现在已有许多插件可以辅助。为2019年央视网络春晚提供虚拟主持人技术支持的偶邦公司创始人郑毅告诉科技日报记者。
有坏孩子之嫌
AI换脸术从其命名为DeepFake起,恐怕已有坏孩子之嫌。
据说,DeepFake原本是一个用户的名字,他将《神奇女侠》主角盖尔·加朵的脸嫁接到另一张脸上,后被这位女演员及其律师起诉,但无奈尚没有相关法律条文对其问责,由此DeepFake反而因为创新之举一炮走红,成为AI换脸术代言人。
在某些重大政治场合,以假乱真的假新闻对于民众的误导,带来的负面影响是不可估量的。2018年5月,美国总统特朗普宣布中止全球气候变化协议,随后被比利时某政党利用DeepFake篡改,做了一个特朗普宣告比利时政府也应退出的假视频,引起比利时民众的公愤。可以想像,如果类似的假视频被用在投票、骚乱、战乱误导民众,煽风点火,后果可能是灾难性的。
此外,DeepFake也有道德隐患。现在很多明星已躺枪,包括艾玛·沃特森、斯嘉丽·约翰逊、瑞汉娜等好莱坞影星、歌星,被换脸后的视频上传到成人视频网站,以假乱真的换脸技术,要面临社会很大的道德争议。
有外媒称:这种技术再次提醒我们,在这个数字时代,任何事情都不能盲目地看表面,因为那张脸可能是在欺骗你。
用AI假里辨真
如何辨别AI换脸术?值得庆幸的是,科学界正在应对这个问题,而主要杀手锏是运用AI技术假里辨真。
纽约州立大学奥尔巴尼分校教授吕斯卫领导的团队发现了伪造视频的漏洞:假脸极少甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。
研究人员表示,伪造视频往往忽略了自发的、无意识的生理活动,例如呼吸、脉搏和眼球运动。吕斯卫说:因此,缺少眨眼是判断一个视频真假的好方法之一。
这种作为反AI变脸技术通过有效预测眼睛的状态,准确率达99%。此项研究已由美国国防高级研究计划局资助,作为甄别媒体假新闻,推进媒体取证计划的一部分。
在伪造视频的后期处理中手动添加眨眼,其实并非一个巨大挑战,而且一些伪造视频已包含眨眼。从长远来看,实际上这是一场通过AI制作假视频和检测假视频之间的持续战斗。吕斯卫说。
此外,郑毅提出,通过强制记录照片和视频拍摄的时间、地点,既在区块链上记录照片和视频不可篡改的时空戳方法,也可进行鉴别。
然而,公共科学研究犹如一把双刃剑:骗子一旦了解其骗局是如何被识破的,就可以对算法进行相应调整。道高一尺魔高一丈,从这个意义上讲,他们已经占上风,最终很难说哪一方会获胜。吕斯卫指出。(来源:科技日报 作者:闫欣 华凌)
南方工报-工人在线责编:刘晓丹
-
上一篇
不少AI合成淫秽图像发布者的目的是侮辱女性。网页截图
新京报记者调查发现,唾手可得的制图工具和难以追溯的传播渠道,让AI黄谣制造者更加猖獗。当他们肆无忌惮地散布谣言时,受害者却困于自证——不再信任社交网络,反复检视自己,对周遭世界的信任也逐渐瓦解。
在倚靠AI换脸衍生的其他领域,也不乏擦边投机者的身影。他们有些在社交平台兜售换上明星脸的淫秽视频;有些提供有偿定制换脸、脱衣图像的服务;还有的拿脱衣当噱头,销售操作教学。
你没有错,错的是造谣者
一周前,林致突然收到近10名陌生人发来的微信好友请求,留言都是小姐姐,交个朋友。
林致觉得奇怪,平日她极少把微信号给别人。她社交圈很小,除了同事、朋友和家人外,几乎不加别人微信。她一一拒绝,但有两三个陌生人反复发送请求,最终她添加了其中一名。
陌生人称,他见过林致的一些大尺度照片。对方先是发来几张林致的生活照,林致认出,那是自己曾发在朋友圈里的照片。随后,是她从未见过的淫秽照片和视频,那些赤身裸体的女性脸上,长着与自己相像的五官。
我被AI盗脸了。林致很快反应过来,她没想到,这种事会发生在自己身上。
为了弄清真相,林致又同意了另两名陌生人的好友请求。在聊天中,林致了解到,他们是在国外社交软件Telegram(下称电报)的淫秽聊天群中,看到有人发布了她的照片和视频,上面的文字总是带着荡妇可撩等字眼,有些暗示她是性工作者,他们再私聊发布者,获取了她的隐私信息。
尽管林致一开始就告诉他们自己已婚,但他们还是不断用轻浮的言语挑逗,姐姐宠你,想追你。
了解越多,林致越感到恐惧。制图者对她了如指掌,知道她的名字、年龄和家庭住址。而根据流出照片的时间跨度来看,制图者早就认识林致,最早的照片是去年5月发的,最晚的是今年5月初发的,我推测是熟人作案、长期蹲守。
林致说,黄谣里既有真照片,又有AI换脸的假照片,两者很像,普通人难以分辨,就更增加了真实感。如果要自证清白,她就掉入造谣者的圈套。她想找到那个造谣者,给自己一个交代。
某电报群内,普通女性日常生活的照片也成为AI盗脸的对象。 网页截图
我一直很纠结。林致担心影响扩大,希望造谣者不要再发,可如果不发,就找不到他。林致和丈夫下载了电报,试图用陌生人提供的关键词找到线索。但只检索出许多盗用她脸伪造的淫秽图像,发布者不断销号、建新号,难以追踪。
AI换脸“造黄谣”:被侮辱的女性和隐秘的施害者
那些照片出现后,林致(化名)的生活彻底被搅乱了。一周前,几名求交友的陌生人发来照片,内容让她吃惊——一些淫秽不堪的女性图片里,长着与自己极其相似的脸。
-
下一篇
利用“AI换脸”等音视频诈骗案件多发
今年以来,ChatGPT和GPT-4等技术的应用成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。昨日,中国互联网协会发文称,伴随着深度合成技术的开放