英特尔开放其最大规模的神经拟态计算系统,神经容量相当于小型哺乳动物的大脑

一直以来,科学家和工程师们都在努力复刻人脑的工作原理,由此诞生了我们熟悉的神经网络。

在这一过程中,人们也在尝试复制感官能力,英特尔的神经拟态芯片 Loihi 就是一项最新的研究成果:它拥有 13 万个神经元(1024 核),实现了嗅觉模拟,掌握了 10 种危险品不同气味的神经表征。

图丨英特尔神经拟态研究芯片 Loihi(来源:Tim Herman / 英特尔公司)

人类的嗅觉识别看似只有闻一闻这个动作,但背后的机制非常复杂。

如果你拿起一个葡萄柚闻一闻,水果分子就会刺激鼻腔内的嗅觉细胞。鼻腔内的细胞会立即向你的大脑嗅觉系统发送信号,一组相互连接的神经元中的电脉冲就会在这个嗅觉系统中产生嗅觉。

无论闻到的是葡萄柚、玫瑰还是有害气体,你大脑中的神经元网络都会产生该物体特有的感觉。同样,你的视觉和听觉、回忆、情绪和决策都有各自的神经网络,它们都以特定的方式进行计算。

神经拟态计算的优势

神经拟态计算(Neuromorphic Computing)是一个由硬件开发、软件支持、生物模型相互交融而成的古老领域,旨在基于仿生的原理让机器拥有类人的智能。

低功耗、高容错、创造性…… 人脑有太多值得机器追赶的能力,因此也是很多计算科学家为之向往的存在。在人脑这个仅占 3% 人体质量的器官中,1000 亿个神经元携 1000 万亿个突触相连接。每一秒都有神经元衰老死亡的情况下,大脑仍能运转计算着世界扑面而来的巨大信息量。而功耗只有 20 瓦。

1980 年,人类首次打开神经拟态计算的大门。超大规模集成电路 (VLSI) 发明者之一、加州理工学院传奇人物 Carver Mead 首次提出神经拟态概念,并设想用 CMOS 模拟电路去模仿生物视网膜,搭建具有生物计算特性的系统。

2017 年,作为英特尔研究院的一个研究课题,英特尔开发了代号为 Loihi 的第一款自主学习神经拟态芯片,在神经拟态硬件的开发上迈出一步。

图 | 英特尔相关研究登上 Nature 子刊 Machine Intelligence

据英特尔中国研究院院长宋继强介绍,之所以选择这个研究方向,主要是出于两个考虑。

第一,想要训练一个可用的模型,神经拟态技术所需的数据和能耗较少。现在的人工智能和深度学习技术,训练起来需要大量的数据和能源。一个大型模型所消耗的电量会产生大量的碳排放,约等于 5 辆汽车整个生命周期的排放量。而且随着人工智能技术的发展,能耗势必会越来越多。

这时候就需要寻找一种既能提高能效比,又能提高数据使用率的方案。神经拟态计算恰好满足这种需求。

第二,相比深度学习,神经拟态计算模型更容易解释和推理。虽然深度学习技术很强大,但它的一个劣势是黑箱问题。即使是模型开发者,也难以完全解释清楚复杂模型的工作原理和行为模式。

相比之下,神经拟态作为类脑计算模型有着天然优势。在逐渐通过小数据学习产生网络之后,它是可以解释的,行为更加稳定,也支持更深层次的推理,然后根据更多数据持续自学。

“我们希望人工智能模型是可以解释的,我知道你为什么做得好,为什么做得不好,这样才可以用在一些关键的任务当中,” 宋继强在近日接受 DeepTech 等媒体采访时表示。

软硬件结合

在 2020 年 3 月发表的论文中,英特尔和康奈尔大学联合团队介绍了 Loihi 芯片背后的故事。

他们以动物的生物嗅觉系统为基础,测量动物闻到气味时的脑电波活动,然后根据这些电路图与电脉冲,导出了一套算法,并将其配置在测试的 Loihi 神经拟态芯片上。

在研究中,Loihi 需要学习检测复杂混合物的不同气味。在一个风洞实验中循环着 10 种气体物质(气味),传感器对各种气味的反应被传送至 Loihi,由其芯片电路对嗅觉背后的大脑电路进行模拟。

这一点和居民常用的烟雾和一氧化碳探测器能探测气味有着本质的不同。因为,这些探测器借助传感器探测空气中的有害分子,但无法对各种气味进行智能分类。

图 | 嗅觉系统演示(来源:nature machine intelligence)

对比此前已有的传统方法——基于深度学习的解决方案,Loihi 展现出了出色的识别准确率。传统方法要达到与 Loihi 相同的分类准确率,该解决方案学习每类气味需要 3000 倍以上的训练样本。这也印证了宋继强所说的第一点。

在 Loihi 芯片基础上,英特尔还打造了一个神经拟态系统 Pohoiki Springs,首次将计算能力(神经元)扩展到了 1 亿个,将 Loihi 的神经容量增加到一个小型哺乳动物大脑的大小。

Pohoiki Springs 是一个数据中心机架式系统,是英特尔迄今为止开发的最大规模的神经拟态计算系统。它将 768 块 Loihi 神经拟态研究芯片集成在 5 台标准服务器大小的机箱中,同时以低于 500 瓦的功率运行。

据宋继强介绍,英特尔创立 INRC(英特尔神经拟态计算研究社区),面向全球研究机构、创业公司和大型公司开放。企业在了解了英特尔神经拟态计算之后,可以直接向英特尔提交申请,阐述自己的项目提案。

加入社区后,研究机构可以访问云平台上的神经拟态计算服务,拥有 1 亿神经元的 Pohoiki Springs 系统就在上面。如果有需要,研究人员还可以直接申请 Loihi 硬件,自己搭建 Loihi 芯片的集成平台去做试验。整个过程都是免费的。

图丨 Pohoiki Springs(来源:英特尔)

硅电子自旋量子计算道路

除了神经拟态芯片,英特尔研究院还同时在量子计算领域发力。不过英特尔选择了一条业界里面比较少有人走的道路:硅电子自旋量子比特。

据介绍,英特尔其实尝试过比较流行的超导量子比特,但就自身积累而言,硅电子自旋更符合其长期的基于硅半导体的制造工艺和现有技术。

宋院长进一步补充称,“一旦做成,我们有信心能把它很快规模化,我们也有信心把它做得便宜,让更多人体验到量子计算带来的好处。所以说我们选择的这条路是世界上很少有人走的路,但是我们一旦做好,它带来的效益会很大。”

2020 年 2 月,英特尔与荷兰量子技术研究中心公布了低温量子控制芯片 Horse Ridge,称其有望同时控制最多 128 个量子比特,并且在量子系统的保真度、扩展性和灵活性方面均有重大进展,正在向商用量子计算机迈进。

一般来说,量子比特要在超低温的环境下工作,人们需要用微波控制它们,而微波需要用电线作为载体。以现在的技术水平,操控 40-50 个量子比特就需要数百根控制线,更不用说未来操控成百上千个量子比特了。数量庞大的布线会约束量子系统的扩展性。

Horse Ridge 的设计理念是简化量子系统运行时所需的控制线,基于高度集成的系统级芯片(SoC),将 4 个无线电频率信道集成到上面,每个信道负责控制 32 个量子比特,整体就可以同时控制 128 个量子比特。

每个芯片只需要一根线,如果要控制上千个量子比特,只需要多放一些芯片就可以了,大大减少了工作量。

无论是神经拟态,还是量子计算,都处于很早期的阶段,想要应用在现实生活中,还有很长的路要走。但并不意味应用在现阶段不重要。

“我相信,底层技术的创新和科研必须坚持长期主义,保证有‘双轮驱动’,一个轮子是基础底层不太变的核心技术方向,另外一个轮子是快速实行,要往哪方面去用,” 宋继强强调。

打开APP阅读更多精彩内容