AI应用可将女性正常照片转换为裸体图片!批评者称侵犯女性权益

继AI换脸之后,又一项有争议的AI应用出现了:生成女性的裸体照片。 AI前哨站注意到,近日,有外国开

继AI换脸之后,又一项有争议的AI应用出现了:生成女性的裸体照片。

AI前哨站注意到,近日,有外国开发者推出了一款名为“DeepNude”的应用,包括客户端版和网页版。输入一张女性照片后,该应用可以“自动脱掉”女性身上的衣服,生成一张伪造的裸体照片。

····根据穿衣服的正常照片生成女性裸体照片

据DeepNude官网介绍,技术人员开发了一种“先进的人工智能算法”,可以识别并删去照片中人物的衣物。

美国媒体Motherboard的测试显示,在肤色、着装不同的数十张照片中,高分辨率照片的转换结果最为自然。同时,原始照片中女性裸露的皮肤越多,转换的结果似乎就越好。例如,输入一张女性穿着比基尼、正面对着镜头、高分辨率的照片后,转换出图片相当地逼真。算法准确地填充了原本被衣服的身体部位的细节,甚至填充了胸部下的阴影。

不过,仔细辨认可以发现,伪造图片会有细节模糊、局部画面边缘呈锯齿状、液化状等瑕疵。在Motherboard的测试中,分辨率低的照片经过转换后,瑕疵会更加明显。

屏幕快照 2019-06-27 下午7.32.26.png

左侧为真实照片,右侧为伪造图片。图自 Motherboard。

AI前哨站注意到,DeepNude网站所留的联系地址位于爱沙尼亚。其开发者则化名为Alberto接受了Motherboard的采访。 他表示,该应用是基于加州大学伯克利分校研发的开源算法pix2pix创建的。pix2pix使用了生成式对抗网络,训练算法时需要庞大的数据集来支持——Alberto说,在训练DeepNude时,他使用了1万张女性裸体图片。

在Motherboard的测试中,男性照片被上传后,转换出的也是女性的身体器官。Alberto解释称,他也希望能创建一个男性版本的应用,但DeepNude目前只能用于女性图片,因为女性裸体图片更容易在网上找到。

Alberto对Motherboard说,大概两年以前,他开始研究人工智能。当他发现生成式对抗网络可以将白天的照片转换为夜晚的照片时,他意识到,把一张穿着衣服的照片转换成一张裸体照片也是可行的。他自称不是“偷窥者”而是“技术爱好者”,做这个实验是因为乐趣和好奇。

屏幕快照 2019-06-27 下午4.19.11.png

DeepNude官网上展示的图片处理过程。 ····迅速招来担忧与批评:很容易被用于色情报复

该应用目前有免费版和付费版。据Motherboard报道,免费版生成的图片大幅的明显水印;付费版生成的图片水印减少,图片左上角有红色的“FAKE(伪造)”的标识。但报道指出,用PS之类的图片工具切掉左上角的“FAKE(伪造)”标识非常容易,到时候图片就真假难辨了。

屏幕快照 2019-06-27 下午8.33.16.png

左侧为真实照片,右侧为伪造图片。图自 Motherboard。

据了解,DeepNude使用的算法,与经常被用于换脸的Deepfake类似。此前,有Reddit用户上传大量色情视频,将原始演员的脸换成了众多知名女明星的脸,如盖尔·加朵、艾玛·沃森等。很多人认为,这将导致虚假视频泛滥,影响女性权益。

还有网友提出,这大大方便了那些喜欢色情报复的人,他们可以将报复对象的脸换到色情视频里——所谓色情报复,指的是情侣分手后,被甩的一方公布另一方的裸体照片等私密照片和视频。在国外已有许多这样的案例,受害者往往是女性。

和Deepfake一样,DeepNude的出现迅速招致了担忧和批评。

“这绝对是可怕的”,活动组织revenge porn的创始人兼首席执行官Katelyn Bowden表示,“现在任何人,甚至在根本没有拍过裸照的情况下,都可能发现自己成了色情报复的受害者。这种技术不应该向公众开放。”

马里兰大学法学院教授Danielle Citron认为,DeepNude是对性隐私的侵犯。“是的,这不是你真正的私处,但别人会以为他们看到了你的裸体。一个Deepfake的受害者曾告诉我,她觉得有上千人看到了她的裸体,她的身体好像不再是自己的了。”Citron表示。

Alberto声称,他也问过自己,应该做这个应用吗?是否会伤害到别人?但他表示,技术已经足够成熟了,即便他不做,也会有别人来做。“如果某个人有不良意图,有没有DeepNude差别不大。”

加州大学伯克利分校教授Hany Farid看到DeepNude后相当震惊。“在检测深度伪造内容方面,我们还得做得更好。怎样更好地保护技术进步,阻止技术被武器化或是被用于一些非计划的、有害的用途上?学术界和研究者应该有更多辩证地思考。”Farid对 Motherboard说。

他同时指出,社交媒体平台应该更加谨慎地思考,如何界定深度伪造内容,如何围绕这类内容制定规则。立法者也需要思考相应的监管措施,以在这一领域内做出深思熟虑的调控。

专注于色情报复的律师Carrie Goldberg在接受Motherboard采访时说,尽管美国许多州有关于禁止色情报复的法律,但深度伪造技术的出现就像是对法律的公开挑衅:因为深度伪造内容展示的实际并不是被报复者的身体。

她表示,无论是色情报复还是深度伪造内容,都建议大家不要去点击、点赞或是分享。在她看来,公众有责任抵制这些内容。人们应该道德地使用互联网,而不是在网络ID的掩盖之下为所欲为。

编译、综合:南都记者 冯群星

打开APP阅读更多精彩内容