本文转自【广西新闻网】;
5月22日
话题#AI诈骗正在爆发#
冲上微博热搜榜第一名
AI技术在生活中运用的风险
引发了网友们的关注
“ 杨幂 ”直播卖衣服?
主播AI换脸带货引流
点开直播间乍一看,卖货的竟是当红女星。再定睛一看,“明星”其实是使用人工智能(AI)实时换脸技术的普通主播。他们冒充明星艺人,只为增加卖点,助力卖货……
记者留意到,某女装品牌的微信视频号直播间里,主播长相和女明星杨幂十分相似。而在不同时段内,该直播间的不同主播,都有着和杨幂相似的脸。
一位长期观看该女装品牌的消费者告诉记者,这个女装品牌的视频号直播间的主播,和其淘宝直播间的直播,是同样的人。但相同的主播在两个直播间用的是不同的脸, “他们在淘宝直播间就是用的自己的脸,在视频号直播间就用AI换过的脸”。
AI换脸技术应用范围越来越广
被滥用的趋势也逐渐凸显
除了有电商动歪心思“带货引流”
不法分子也开始利用来实施诈骗
公司老板遭遇AI换脸诈骗
10分钟被骗取430万元
据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
今年4月,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。 “当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。
AI诈骗手法不可不防
01
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
案例: 某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
02
AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
案例: 近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
03
转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
04
AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如此以假乱真
让人防不胜防
AI技术的法律边界在哪?
普通人又该如何防范?
AI技术存在滥用风险
务必保持防范意识
为规范人工智能发展,2022年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等, 一经发现,平台将严格处罚。
对于个人而言,除了在形形色色的“明星脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识。
保护信息,提高警惕。 不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
多重验证,确认身份。 如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款;
如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。
整治AI换脸
要用“法”打败“魔法”
“换脸冒充当红女星带货,赚得盆满钵溢”“短短10分钟,被骗430万元”……这种“换脸”术和拟声术,让人防不胜防。如此种种,无不说明AI“换脸”术和拟声术的滥用,已经对公共利益构成威胁。
整治AI换脸,当用“法”打败“魔法”。
这个法,是方法、办法的法。 有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。
这个法,也是法规、法律的法。 此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。
AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。
来源丨广西新闻网微信综合央视新闻微信公众号、 中国之声、“平安包头”微信公众号、南方都市报、武汉市反电信网络诈骗中心等