技术凶猛,宜徐徐图之。自1956年“人工智能”这门新兴学科的正式诞生后,这门处于各领域交叉的科学已经取得了长足的发展,尤其是在近年各类投资资金以商业化和营利为目的的带动下更成为一门人人皆谈的“显学”。
但实际上,在人工智能各细分领域的研究者和处于兴趣爱好的普罗大众之间,始终横亘着一条无法逾越的鸿沟,那就是受流行文化影响的大众对AI技术的高期待与现实技术标准较低之间的矛盾。以中国人民大学信息学院院长、中国人民大学高瓴人工智能学院执行院长文继荣的话来说就是,“如今类似于《西部世界》的科幻片对于大众认识人工智能技术是具有误导性的。”
的确,无论是科幻电影《Her》中的女主人工智能,还是《阿丽塔》中的阿丽塔都把人工智能系统塑造成一个情感丰富、具有自主意识的“生物”,仿佛除了那钢铁身躯之外,其与人类已经别无二致。
然而,现实却是纵然我们可以基于深度学习训练智能助手,使其深谙人类的习惯和特征,但那也仅仅是对于人类行为数据的分析和归纳,并非是研究人员在对人类个体的运行逻辑进行“逆向工程”后从0培育出一个具有人脑结构和人类思维方式的物种。换句话说,Siri可以并非是“懂你”,而只是对你的一言一行给出了该有的输出结果。
事实上,人类对于我们自身的情感产生机制和大脑奥秘都还没有全面的情况下,是无法用代码和机器“复制”一个“我”的。恰如清华大学人工智能研究院院长、中国科学院张钹院士的观点,“AI最大问题就是我们对大脑了解很少的情况下去做人工智能。”而由此衍生出的关于什么是爱,什么是美,情感究竟是客观还是主观等诸多问题不要说是机器,就是对人类来讲也是足以上升到哲学高度的终极难题。
但原理不明并不代表冠以“人工智能”技术的应用在我们身边遍地开花,而其中应用的比较普遍的场景,同时也引发较多争议的往往是在公共部门,最典型的就是安置在各个角落的人脸识别摄像头,其引发的关于隐私和安全的争议甚至盖过了人们对于技术本身的关注。也就是说,人们对于现有的且正在一日千里发展的人工智能技术该怎样约束和规范时提出了发自内心的担忧和恐惧。
对此,对于人工智能技术研究比较深入的国家和地区纷纷给出了自己的“AI伦理准则”,如澳大利亚就有自己的《人工智能发展政策指导》,关注的话题是人工智能技术运用中的可持续发展、公平、透明、鲁棒和安全;加拿大的《蒙特利尔宣言》则关注幸福、自主、正义、隐私、知识、民主和责任等话题;还有欧盟的《可信赖AI伦理准则》将目光聚焦在了可信赖、伦理准则和全生命周期。
其中,在欧盟《伦理准则》的执行摘要中就提到,“人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时执行摘要也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI带来的收益大于风险。我们必须遵循「最大化A1的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的A发展方向,时刻铭记A1的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。”
而中国在这方面也迈出了第一步。2019年5月25日,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。同时,北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》,提出人工智能的研发、使用、治理应该遵循的15条原则:
研发
人工智能的研究与开发应遵循以下原则:
造福:人工智能应被用来促进社会与人类文明的进步,推动自然与社会的可持续发展,造福全人类与环境,增进社会与生态的福祉。
服务于人:人工智能的研发应服务于人类,符合人类价值观,符合人类的整体利益;应充分尊重人类的隐私、尊严、自由、自主、权利;人工智能不应被用来针对、利用或伤害人类。
负责:人工智能的研发者应充分考虑并尽力降低、避免其成果所带来的潜在伦理、法律、社会风险与隐患。
控制风险:人工智能及其产品的研发者应不断提升模型与系统的成熟度、鲁棒性、可靠性、可控性,实现人工智能系统的数据安全、系统自身的安全以及对外部环境的安全。
合乎伦理:人工智能的研发应采用符合伦理的设计方法以使得系统可信,包括但不限于:使系统尽可能公正,减少系统中的歧视与偏见;提高系统透明性,增强系统可解释度、可预测性,使系统可追溯、可核查、可问责等。
多样与包容:人工智能的发展应该体现多样性与包容性,尽可能地为惠及更多的人而设计,尤其是那些技术应用中容易被忽视的、缺乏代表性的群体。
开放共享:鼓励建立人工智能开放平台,避免数据与平台垄断,最大范围共享人工智能发展成果,促进不同地域、行业借助人工智能机会均等地发展。
使用
人工智能的使用应遵循以下原则:
善用与慎用:人工智能的使用者应具备使人工智能系统按照设计运行所必需的知识和能力,并对其所可能带来的潜在影响具备充分认识,避免误用、滥用,以最大化人工智能带来的益处、最小化其风险。
知情与同意:应采取措施确保人工智能系统的利益相关者对人工智能系统对其权益的影响做到充分的知情与同意。在未预期情况发生时,应建立合理的数据与服务撤销机制,以确保用户自身权益不受侵害。
教育与培训:人工智能的利益相关者应能够通过教育与培训在心理、情感、技能等各方面适应人工智能发展带来的影响。
治理
人工智能的治理应遵循以下原则:
优化就业:对于人工智能对人类就业的潜在影响,应采取包容的态度。对于一些可能对现有人类就业产生巨大冲击的人工智能应用的推广,应采取谨慎的态度。鼓励探索人机协同,创造更能发挥人类优势和特点的新工作。
和谐与合作:应积极开展合作建立跨学科、跨领域、跨部门、跨机构、跨地域、全球性、综合性的人工智能治理生态系统,避免恶意竞争,共享治理经验,以优化共生的理念共同应对人工智能带来的影响。
适应与适度:应积极考虑对人工智能准则、政策法规等的适应性修订,使之适应人工智能的发展。人工智能治理措施应与人工智能发展状况相匹配,既不阻碍其合理利用,又确保其对社会和自然有益。
细化与落实:应积极考虑人工智能不同场景、不同领域发展的具体情况,制定更加具体、细化的准则;促进人工智能准则及细则的实施,并贯穿于人工智能研发与应用的整个生命周期。
长远规划:鼓励对增强智能、通用智能和超级智能的潜在影响进行持续研究,以确保未来人工智能始终向对社会和自然有益的方向发展。
以上是《人工智能北京共识》的主要内容人工智能的发展关乎全社会、全人类及环境的未来。上述准则对推进人工智能的研发、使用、治理和长远规划提出倡议。通过推动人工智能的健康发展,助力于人类命运共同体的构建,实现对人类和自然有益的人工智能。