用AI换脸来诈骗,千层套路该怎么破?
随着技术的不断进步
AI应用场景越来越丰富
一键换脸,和喜爱的偶像合影
大叔通过AI技术秒变萝莉御姐
AI孙燕姿刚出道就爆火
……
曾经离我们很遥远的AI
如今正迅速进入大众生活
需要注意的是
骗子也盯上了AI技术
利用它玩起了真假美猴王
和你视频对话的可能不是本人
近日
包头警方发布一起
利用AI实施电信诈骗的典型案例
好友突然打来视频
福州的郭先生在确认过长相和声音后仍被骗
10分钟内被骗走430万元
原来是骗子通过智能AI换脸和拟声技术
佯装好友对他实施了诈骗
幸运的是
接到报警后,福州、包头两地警银
迅速启动止付机制
成功止付拦截336.84万元
案件披露后
AI诈骗正在全国爆发的话题冲上热搜
引发网友广泛关注
AI诈骗常用手法
如何防范AI诈骗
那么面对AI换脸诈骗就没辙了吗?
在AI时代
眼见、耳听都不一定为实了
大大增强了迷惑性
运用AI技术
再加上套路和剧本的演绎
这样的诈骗手段,小伙伴们要hold住
诈骗魔高一尺,防范道高一丈
监管先行避免AI野蛮生长
需要厘清的是,AI换脸虽然是新事物,但却不存在监管空白或无法可依的情况。
针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称规定),自2023年1月10日起施行。规定要求深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
今年4月11日,国家网信办起草了《生成式人工智能服务管理办法》(征求意见稿),提出AI内容必须真实准确,其中也明确提到,禁止非法获取、披露、利用个人信息和隐私、商业秘密。
【温馨提示】
使用AI换脸及类似软件风险极高,伴随着法律风险和侵权纠纷。AI换脸技术即便只是用来搞笑或者制作恶搞照片,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。希望大家依法使用该项技术,一旦遇到类似本案中利用AI换脸技术实施犯罪行为的,应第一时间固定证据,并及时向司法机关报案。
转自:科普中国
来源: 科普进行时
-
上一篇
忙碌了一整天,回到家里肯定是要放松一下的。
咳咳,既然手谈姬一直在家,当然也得一直放松了。
过于惊悚!国产剧使用AI换脸技术,让人完全顶不住……
-
下一篇
熟人向张先生要了银行卡账号和开户名,随后发给张先生一张转账22万的账单截图。已经转过去了,收到没?熟人问张先生。张先生表示还没有收到到账提示。我这边显示到你账上了,刚才忘记点加急,可能要24小时才可以到。熟人希望张先生先垫付,等他的转账到账后再扣除。
张先生不疑有他,到附近银行将手头上现有的10万元转到了相应账户里,并回复说已实时到账。当张先生从银行出来收到对方回复的时候,突然反应过来事情不太对劲,通过电话核实,张先生发现自己果然被骗了!
AI技术如何介入新骗局?有什么新的诈骗方式?注意了!
1.声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2.AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
3.转发微信语音
除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。
在盗取微信号后,骗子便向其好友借钱,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
4.通过AI技术筛选受骗人群
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
警方提示:
“AI换脸”骗局来了!山东临沂真实案例曝光!
俗话说