近些年,随着AI技术的迅猛发展,人脸识别的认证逐步改变了很多商业交互方式。例如,苏宁任性贷要求刷脸认证,支付宝提供了基于人脸的验证登录手段,很多银行或者金融公司也提供了远程的、基于人脸识别的视频面审流程。
目前,基于AI的人脸识别在精确度上已经超过人类的肉眼辨别能力,很多业务可以便捷地享受AI科技带来的便捷核验手段。
不过,直到deepfakes将AI这一大杀器用在了图像或视频欺诈上,人们才意识到——深度学习AI技术,用在正向的领域,带给我们革命性的便捷和高效;用在黑暗的非法领域,给我们带来的风险可能远超从前。
Deepfake技术引起轰动,是因为在国外的reddit论坛,一个网名为“deepfakes”的网友在2017年12月发布了一些利用深度学习技术“修改过”的成人视频,修改的内容就是将视频中的人脸照片更换为当前好莱坞最热的一些女明星的人脸,如2017年大火的神奇女侠——盖儿·加朵。
一时间舆论哗然,各社交论坛一致发出公约,不允许此类AI制造视频的生成和发布。因为基于深度学习制作的虚假视频,很容易以假乱真,特别是该技术可能对出镜频繁的名人、政客等造成潜在危害,如发布虚假的声明、制作虚假的视频内容等,这将引起极大的社会问题。
2018年初,youtube上有人放出基于Deepfake技术制作的关于川普的模仿视频:原视频是 Alec Baldwin 周末晚间秀一段模仿川普的视频,但是一位youtube的博主 “ derpfakes” 训练换脸 AI 将 Alec Baldwin 的脸换成了川普的脸。可怕的是,该技术已经能够达成像素级的人脸识别,展现出了以假乱真、颠倒黑白的潜力。
不光是视频,声音也存在被复制模仿的可能。例如,蒙特利尔初创公司 Lyrebird 开发了一种语音合成技术,用很少的数据,训练一分钟,就能复制任何人的声音。
如果结合上面提到的Deepfake技术,视频、声音,加上虚假的内容,未来人们很难识别那些被发布的新闻消息是否是真实的。同样,如果你在网络上留下过多痕迹(照片、视频、语音),这些信息可能让你成为AI技术下的受害者。
当AI用在了照片或者视频欺骗上,未来对视频的真实性验证将是一个比较严峻的问题。AI图像研究学者们也注意到这一问题。例如,最近纽约奥尔巴尼大学的吕思伟教授提出的“基于眨眼探测”的技术,用于分析视频中人物的生理特征,从而识别出虚假的AI制作视频。
具体来说,Deepfake算法根据馈送的图像创建视频,虽然比较准确,但人工智能始终无法完美再现人类自然产生的所有生理信号。人类通常每两到三秒就会眨一次眼。而通过照片逐帧合成训练生成的视频,会破坏这些正常的生理行为特征。
为此,吕思伟教授使用CNN(卷积神经网络)进行人脸中眼睛眨眼的特征识别。然而,该检测只能针对单张图像进行分析处理,而人类的眨眼活动是周期性的,为识别眨眼这一动作,需要再追加一个LSTM(长短期记忆递归神经网络)用于记录一段时间内的连续性行为。
在训练出识别眨眼的模型后,可通过对比正常视频中的眨眼特征和derpfake制作的视频中的眨眼特征,识别出异常的视频,其侦测结果如下所示:
不过,当你以为有这一利器,在反欺诈的视频检查上就万事大吉的时候,那你就错了!
前面展示的是利用AI进行换脸而造就的虚假视频。如果造假者在开始就加入了自然的人为特征,上面的方法可能还需要进一步做优化调整。
例如,H. Kim 等研究人员在SIGGRAPH2018年的论文“Deep Video Portraits”展示的技术,体现了使用一个人的表情特征来驱动另外一个人的面部,最终生成的视频,包含着自然的眨眼特征,其效果如下所示:
看完效果图,你会明白:欺诈分子完全可以通过一个表演者,加入人为的自然特征,来逃过眨眼的检测。黑产不法分子完全可以通过制作这种映射视频,再结合虚假的声音特征,骗过视频检验的真人核验,哪怕是面对面的视频交流,你仍然无法识别其中的真假。
当硬件的计算能力进一步提升,Deepfake技术进一步普及的时候,你是否意识到,你发布的影像资料、语音资料都可能让你面临被该技术侵害的风险?你是否意识到和你面对面视频的帅哥美女,可能不是你真实看到的实际人物?
互联网曾经流传这样一句话:“电脑那头,你甚至不知道和你聊天的是不是一条狗”,在未来可能会变成:“即使面对面视频,你都不知道和你聊天的美女实际是一个抠脚大汉驱动的假人”。
面对这样的技术应用,你怎么看呢?
来源:苏宁财富资讯;作者:苏宁金融研究院数据风控实验室首席研究员 郑清正