你的“脸”被贱卖,人工智能有风险?科学家们这样说

摘要:12月3日,第二届江苏省人工智能大会在南京举办,现场,省内外人工智能届的最强“智慧大脑”围绕上述话题分享观点。

现代快报讯(记者 胡玉梅 )智能机器人、无人驾驶、计算机视觉、语音识别、大数据分析……不知不觉,人工智能早已渗入我们生活的方方面面。但你有想过吗?在人工智能广泛使用的同时,可信和数据隐私等问题也暴露出来了。

12月3日,由江苏省科协指导,江苏省人工智能学会主办的第二届江苏省人工智能大会在南京举办,现场,省内外人工智能届的最强“智慧大脑”围绕上述话题分享观点。

人工智能无处不在,可信安全有忧患

在医院,有给病人动手术的机器人;在银行大厅,有机器人“迎宾”;在宾馆、饭店,有机器人“服务员”……在生活中,人工智能几乎无所不在。

“智能机器人、无人驾驶、计算机视觉……这些都可信安全吗?我可以告诉大家,实际使用起来并不是那么好。”论坛上,中国科学院院士何积丰作了题为《可信人工智能》的主旨报告。他举例说,医院的达芬奇手术机器人,可以给病人开刀,让医生从繁忙的手术中解脱出来。但事实上,达芬奇手术机器人出了好几个事故。有一次事故就是病人血喷出来,把镜头污染了。机器人“看”不到东西,感知系统无法正常工作,导致手术无法进行。

“是什么原因导致了事故的发生?这是因为,这些突发的场景并不在训练范围,机器也就无法从容应对。” 何积丰说,“可信”是计算机领域的一个概念 ,主要强调的是计算机系统和其处理过程的可预测性、可验证性。近年来,“可信”的概念也被引入到人工智能领域。

你的“脸”被贱卖?需要法律伦理来规定

前两天,一则《细思恐极!你的“脸”被贱卖了,5000多张人脸照片网上10元》的消息,引起了大家对人工智能的怀疑。因为,当你在进行刷脸支付、安防准入、身份验证时,稀里糊涂的就把自己的隐私丢了。

如何保证人工智能的安全可控?何积丰告诉现代快报记者,人工智能是一种“赋能”技术,对于其安全问题,应该从两个层面来讨论,一层是人工智能技术本身的安全问题,一层是人工智能与行业结合后的潜在风险。以网络安全为例,他认为,人工智能很多目前应用到一线的产品,其实效果远未达到理想状态,尤其是算法、算力、网络体系和数据体系的安全性等,比如,数据传输过程中会不会被篡改,很难去验证。

另外,人工智能的可信,也需要建立相应的法律、法规、标准和社会伦理准则。比如,对数据进行分类,规定这个数据哪些地方能用,哪些地方不能用。同时,人类应该为人工智能技术的开发设定边界,不能做无限开发。

未来机器学习,“学件”帮你轻松搞定

南京大学人工智能学院院长周志华作主旨报告《机器学习展望》,提出的“学件”理念,引起了大会广泛关注。

周志华透露,“学件”由模型和用于描述模型的规约两部分构成,就像硬件和软件一样可以在市场上供人挑选。未来的用户若想要做自己的机器学习应用,不用再从头“制刀”,只需打磨改造成符合自己的需求即可。“目前这一概念才提出,我们估计研究需要10年—15年的时间,但是工业界现在对这个概念非常欢迎,也许比我们希望的早一点开发。”

周志华透露,公开学件不需要共享数据,也就可以避免目前最受争议的数据隐私问题。

打开APP阅读更多精彩内容