“杨幂热巴”直播带货引流?“朋友”通视频骗走数百万元?警惕AI换脸新骗局

本文转自【广西新闻网】;

5月22日

话题#AI诈骗正在爆发#

冲上微博热搜榜第一名

AI技术在生活中运用的风险

引发了网友们的关注

微博热搜截图

杨幂 ”直播卖衣服?

主播AI换脸带货引流

点开直播间乍一看,卖货的竟是当红女星。再定睛一看,“明星”其实是使用人工智能(AI)实时换脸技术的普通主播。他们冒充明星艺人,只为增加卖点,助力卖货……

记者留意到,某女装品牌的微信视频号直播间里,主播长相和女明星杨幂十分相似。而在不同时段内,该直播间的不同主播,都有着和杨幂相似的脸。

该直播间的不同主播都有着一张神似杨幂的脸

一位长期观看该女装品牌的消费者告诉记者,这个女装品牌的视频号直播间的主播,和其淘宝直播间的直播,是同样的人。但相同的主播在两个直播间用的是不同的脸, “他们在淘宝直播间就是用的自己的脸,在视频号直播间就用AI换过的脸”。

同一个主播在淘宝直播间出现时,和杨幂并不相像

AI换脸技术应用范围越来越广

被滥用的趋势也逐渐凸显

除了有电商动歪心思“带货引流”

不法分子也开始利用来实施诈骗

公司老板遭遇AI换脸诈骗

10分钟被骗取430万元

据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

今年4月,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。

基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。

事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。 “当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。

AI诈骗手法不可不防

01

声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例: 某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

02

AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

案例: 近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。

03

转发微信语音

骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

04

AI程序筛选受害人

骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。

如此以假乱真

让人防不胜防

AI技术的法律边界在哪?

普通人又该如何防范?

AI技术存在滥用风险

务必保持防范意识

为规范人工智能发展,2022年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。

近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等, 一经发现,平台将严格处罚。

对于个人而言,除了在形形色色的“明星脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识。

保护信息,提高警惕。 不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

多重验证,确认身份。 如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款;

如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。

整治AI换脸

要用“法”打败“魔法”

“换脸冒充当红女星带货,赚得盆满钵溢”“短短10分钟,被骗430万元”……这种“换脸”术和拟声术,让人防不胜防。如此种种,无不说明AI“换脸”术和拟声术的滥用,已经对公共利益构成威胁。

整治AI换脸,当用“法”打败“魔法”。

这个法,是方法、办法的法。 有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。

这个法,也是法规、法律的法。 此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。

AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。

来源丨广西新闻网微信综合央视新闻微信公众号、 中国之声、“平安包头”微信公众号、南方都市报、武汉市反电信网络诈骗中心等

打开APP阅读更多精彩内容