Anthropic与OpenAI罕见观点相同:AI并没有“撞墙”,只是变得太聪明

11月25日消息,近期,关于AI模型规模定律(Scaling Law)是否遭遇“撞墙”现象的争议引发了广泛关注。在这场争论中,作为竞争对手的OpenAI与Anthropic却罕见地一致枪口对外,他们都认为AI并没有“撞墙”。

这场争论的核心聚焦于:随着模型规模的持续扩大,其性能提升是否会遭遇无法逾越的天花板。对此,OpenAI的首席执行官山姆·奥特曼(Sam Altman)已在社交媒体上明确表示:“没有墙!(there is no wall.)”

如今,Anthropic的副总裁兼技术主管迈克尔·格斯滕哈伯(Michael Gerstenhaber)也发表了看法。他指出,大语言模型及其他形式的生成式人工智能在“自我纠正”方面正稳步进步,将能够胜任更多任务,并推动“AI智能体”的发展。

在最近名为“新一代人工智能:它能实现生产力承诺吗?”的会议上,格斯滕哈伯强调:“大模型在自我纠正与自我推理方面变得愈发擅长。每隔数月,我们就会推出新模型,不断拓展大语言模型的功能。这个行业最令人兴奋之处在于,每次模型升级都会解锁全新的应用场景。”

Anthropic的最新模型已涉足任务规划领域,如模拟人类在电脑上的操作流程,包括网上订购披萨等。格斯滕哈伯表示:“如今,规划中间步骤已成为现实,而这在以往是无法实现的。”

格斯滕哈伯的观点与人工智能怀疑论者的立场大相径庭。怀疑论者认为,生成式人工智能及其他更广泛的人工智能领域正在遭遇“撞墙”困境,即每代新模型带来的改进正逐渐减少。

人工智能学者加里·马库斯(Gary Marcus)在2022年已发出过警告,他认为仅仅通过增加人工智能模型的参数数量,并不能带来与规模增长相匹配的性能提升。这一警告至今仍然被他不断重申。

面对这一观点,格斯滕哈伯表示,Anthropic一直在推动当前人工智能基准测试所能衡量的能力边界。他解释说:“即使在某些方面看起来增长似乎在放缓,那也是因为我们正在实现全新的功能类别,而我们已经让基准测试和完成原来任务的能力达到了饱和状态。”换言之,衡量新一代人工智能模型的能力正变得越来越具有挑战性。

格斯滕哈伯与机器学习标注训练平台Scale AI的维贾伊·卡鲁那姆西(Vijay Karunamurthy)均认为,通过扩展生成式人工智能的规模,有助于推动这种自我纠正的神经网络的进步。

格斯滕哈伯指出:“我们确实看到智能在不断扩展,但我们并不认为我们在规划和推理方面遇到了瓶颈。其中一个原因是,我们现在才刚刚开始了解如何构建规划和推理任务,以便模型能够适应它们尚未尝试过的各种新环境。”

他补充道:“我们还处于发展的早期阶段,正在从应用程序开发者那里了解他们在尝试做什么,以及大语言模型在哪些方面做得不够好,这样我们就可以将这些信息集成到大模型中,进行迭代改进。”

格斯滕哈伯还表示,这些发现与Anthropic的基础研究速度密切相关,但部分也依赖于倾听“行业告诉我们他们需要什么,以及我们的适应能力——我们非常注重实时学习。”

卡鲁那姆西则指出,客户往往倾向于从大型模型开始,但有时也会根据具体需求缩小到更简单的人工智能模型。他补充说:“很明显,他们首先考虑的是人工智能是否足够智能,能否很好地完成测试;其次是它是否足够快,能否满足他们在应用程序中的需求;最后是尽可能地降低成本。”

本文来自“腾讯科技”,作者:金鹿,36氪经授权发布。

打开APP阅读更多精彩内容