2025年的 Snowflake 峰会正于6月2日至5日在美国旧金山 Moscone 中心举行,在“构建AI与应用的未来”论坛的炉边对话中,由 Snowflake 首席执行官 Sridhar Ramaswamy 、Conviction 创始人 Sarah Guo 、 OpenAI 创始人兼首席执行官 Sam Altman 进行了一场内容广泛的炉边对话。Sam Altman 用看似简单的逻辑揭示了关于AGI、大语言模型、AI Agent 的深度理解。以下为这场炉边对话实录:
Sridhar:当我们展望未来时,我们知道AI有潜力塑造未来,让未来变得更美好。生成式AI已经解锁了从代码编写到哲学推理等诸多领域,这一历程始于基础模型。它们让数十亿用户得以利用数据的力量,这是此前无法企及的,它们改变了我们所有人的游戏规则。很少有公司比 OpenAI 更能塑造未来,随着 ChatGPT 的爆炸性增长,每天超过10亿人使用,他们重新定义了我们与数据和智能的交互方式,以及我们对未来工作的想象。
而这场变革的核心人物,当今科技界最具影响力的声音之一, Sam Altman 带领 OpenAI 从开创性研究走向如今影响数十亿人的产品,在真正的全球范围内推动了AI的发展。请和我一起欢迎 OpenAI 的创始人兼首席执行官 Sam Altman 。
接下来将加入我们主持对话的是,Conviction 的创始人兼执行合伙人,也是我的好朋友 Sarah Guo,欢迎两位!
Sarah:能再次回来的感觉太棒了。直白地说,这场活动感觉就像一场为数据而设的摇滚音乐会,专属于数据人的盛会。
Sridhar:是的,你两年前就来过这里。
Sarah:是的,但当时还没现在这么震撼。那么作为开场,Sam ,你会给探索AI领域的企业领导者,提供怎样的建议?
Sam:我觉得放手去做就行。尽管很多人仍在犹豫,而且模型的变化非常快,人们总有理由等待下一个模型版本,或者等着看事情会这样发展还是那样发展,又或者纠结是该采用A方案还是B方案。
但从技术发展的一般规律来讲,当事情变化迅速时,那些迭代速度最快、把犯错成本降到最低且学习效率最高的公司会获胜。当然,就企业和AI而言,我们看到那些早早下注并快速迭代的人,明显优于那些仍在观望的人。
Sarah:你怎么看?
Sridhar:我完全赞同。我想补充的一点是好奇心。我觉得我们曾经认为理所当然的很多事情如今已不再适用,需要去尝试。很多公司,比如OpenAI、Snowflake,已经大幅降低了实验成本。你可以不断尝试小实验,快速获得反馈并在此基础上持续优化。我想再次重申 Sam 的观点,也就是那些迭代速度最快的组织将从新技术中获得最大价值,因为他们知道哪些可行,哪些不可行。他们能够应对这个快速变化的未来。我认为在未来几年里,永远不会有一个“完美时刻”,让一切都尘埃落定,然后我们再去想该怎么做。
Sarah:你现在的建议和去年会有什么不同?
Sridhar:我觉得去年我也说了同样的话,我认为好奇心是最容易被忽视的,而且犯错也没关系。你得找出那些犯错影响不大的情况,这样的情况有很多。而且技术也在迅速成熟。现在你完全可以用ChatGPT来获取有关最新事件的信息,因为它知道何时使用网络搜索来提供这些信息。像聊天机器人这类应用有很多,无论是处理结构化还是非结构化数据,技术都已经成熟了,你可以采用它。当然,你也可以不断拓展它的应用边界。虽然有一些比较前沿、自主的应用,但离技术前沿还很远。我认为这项技术实际上已经可以进入主流应用了。
Sam:有意思的是,去年我不会这么说。去年要是对初创公司,我会说同样的话,但对于一个大企业,我可能会说,你可以稍微做些小试验,但在大多数情况下,这项技术可能还不完全适合投入生产应用。但现在情况开始变了,我们的企业业务已经呈现爆发式增长,我们和大公司交流,他们现在大量使用我们的产品,还会问我们,为什么感觉完全不一样。我们就想,你们只是慢慢才理解这个技术吗?他们说这是一部分原因,但现在它的可靠性大大提高了,它能完成各种我之前没想到它能做到的事。看起来在过去一年的某个时间,这些模型的可用性迎来了真正的转折点。
现在一个有趣的问题是,明年我们会有什么不同的说法?我觉得明年这个时候,你不仅可以用系统来自动化一些业务流程或开发新产品和服务,而且你可以说,我在业务上有个非常重要的问题。要是你能解决它,我会投入大量的计算资源,而模型将能够解决人力团队自己无法完成的事情。那些在这些模型应用上有经验的公司,将能应对这样的情况:可以对AI系统说,去重新开展我最重要的项目,我会提供大量算力,请深入思考,找到答案。而那些已经做好准备的公司,明年会迎来又一次重大变革。
Sarah:我觉得,鉴于推理能力的提升、在难题上投入更多计算资源,以及在一些工作流程中引入智能体,有一种观点认为,存储和检索方式必须有很大改变。你认为存储和检索在这个新时代会发挥什么作用?
Sridhar:我认为像检索这类功能在让生成式AI技术落地方面一直起着关键作用。尤其是在需要依托现实数据的时候。如果你问的是一个事实性问题,你会希望得到可靠的答案。所以,在GPT 3上,我们早在2023年初就构建了网络搜索系统。因此,无论何时你问一个需要以现实世界为参考才能回答的问题,比如突发新闻,系统都能补充上下文信息。
同样,AI 能记住你过去解决某些问题的方式,你与特定系统的交互情况,都能极大地提升系统表现,并让它在未来对你更有帮助。我认为,随着你使用这些模型完成越来越多有趣的任务,它们的作用将不断增强。而你提供的上下文越丰富,这些系统在交互和自主能力方面都会表现得越好。
Sarah:Sam,你能给在座的各位领导者提供一个框架,让他们思考如今以及明年智能体可以完成哪些任务吗?
Sam:我们刚刚推出的名为 Codex 的编码智能体,是让我第一次感受到 AGI 时刻的工具之一。你能感受到那种智能突破的瞬间,你会看到,给它布置一堆任务,它会在后台运行。它能处理那些具有长时间跨度的复杂任务,然后你只需坐在那里,对它的某个方案表示认可,或者让它再试一次。它还能进一步连接到你的 GitHub。未来甚至可以查看你的会议记录,浏览Slack消息、内部文档,它的处理能力令人震惊。
也许今天它还像一个能工作几个小时的实习生,但在未来某个时候,它会像一位经验丰富的软件工程师,能连续工作好几天。我们会在很多其他工作领域看到类似的情况。你会听到一些公司正在构建智能体来自动化他们大部分的客户支持、售后销售或其他诸多工作。你也会听到有人说,他们现在的工作就是给一群智能体分配任务,评估工作质量,考虑如何整合这些工作,然后给予反馈。这听起来很像他们与一个相对初级的员工团队合作的方式。这种情况已经出现了,虽然目前还未普及,但正在发生。
我敢打赌,明年至少在某些有限的情况下,我们会开始看到一些智能体能够帮助我们发现新知识,或者解决目前相当棘手的商业问题。目前它更多地适用于重复性的认知工作,我们可以在短时间内以较低的水平实现自动化。随着应用时间的延长和层次的不断提高,在未来某个时候,我们会拥有一个能够探索新科学的AI科学家智能体,那将是一个具有重大意义的时刻。
Sarah:你刚提到 Codex 和编程智能体是让你感受到正在来临的AGI 时刻。所以我必须问你这个问题,在你看来,AGI 的定义是什么?我们距离实现它还有多远,这对我们意味着什么?
Sam:想想如果你能回到大多数人身边,如果可以的话,回到过去仅仅五年, 比如2020年。
Sarah:不过那就像 AI 的黑暗时代。
Sam:实际上,那是一个非常有趣的时间点,因为我觉得如果精确回溯到五年前就是那个时候。我可能说得不对,但我认为那正好是在我们推出GPT 3之前。那时,世界上还没有出现一个好的大语言模型。如果你能回到那个时刻,给当时的人展示如今的ChatGPT,更不用说 Codex 或其他东西了,仅仅是ChatGPT。我想大多数人肯定会说那就是 AGI 了。
而且你知道,我们人类很擅长调整自己的预期,我觉得这是人性的奇妙之处。我认为,关于什么是通用AI这个问题其实并不重要。我认为 AGI 是什么的问题并不重要,这是一个大家定义不同的术语。同一个人往往也会给出不同的定义。重要的是,我们在过去五年里逐年看到的进步速度至少要在接下来的五年里持续下去,很可能会保持这样的速度,但也很难说。而且,你是在2024年、2026年还是2028年宣布实现 AGI,以及你是在2028年、2030年还是2032年宣布实现超级智能,都远不如另一件事重要。这是一条漫长而美丽、令人惊讶地平稳的指数级进步路径。
所以在我看来,一个系统如果能够自主发现新的科学知识,或者能成为人类极其强大的工具,让世界的科学发现速度提高四倍之类的,那它就能通过我能想到的任何 AGI 测试。还有些人会说,它必须是一个能够自我改进的系统,很多人会说如今带有记忆功能的ChatGPT 就很接近了。
Sarah:在我们早期的一些测试中,就像图灵测试,人们常说他是目标。那回到2022年,你还记得你在构建搜索引擎时用的第一次使用的 OpenAI模型是哪一年吗?
Sridhar:具体哪一年我记不清了,当时我们在用GPT-3 playground做一些小实验,然后用我们当时负担不起的 GPT-3 的 API ,也没办法在网络规模运行它。所以我们基本上通过逆向工程,研究如何用70亿、100亿参数的模型来实现。对我来说,GPT-3 能很好地处理,抽象摘要这个难题被 GPT-3 很好地解决时,这基本上就是把一篇1500字的博客用三句话来概括,这真的很难,人们做起来都很费劲。
但这些模型突然就能做到了,这对我们来说算是一个顿悟时刻。如果你能在整个网络语料库上实现这一点,那你当然就有了搜索功能,它可以弄清楚该看哪10页。当意识到“天哪,这里面蕴含着惊人的力量”时,那真是一个令人恍然大悟的时刻,而且这种力量当然还在持续增长。
Sarah:作为企业家或 Snowflake 的CEO,你是在什么时候意识到“哇,我也雇佣了Neeva公司的前员工”我的出发点之一就是,万物皆搜索,或是“搜索+”。你是什么时候有这种想法的?
Sridhar:这其实关乎上下文的设定。一旦你看到,并与这些模型交互或思考任何问题,你也希望有一种方法来缩小它的操作范围。这是一种非常强大且通用的技术,即便看看许多现有的训练后技术也是如此。其核心就是,拿这个极强的模型,给它输入什么有效、什么无效的上下文,然后用它来优化产出。我会说这更像是一个通用概念,而非让某件事实现的具体工具,关键在于是否设定了正确的上下文。上下文永远是是无限的,人类是通过我们所谓的注意力来解决这个问题,我们选择关注某些东西,我认为搜索是为模型设定注意力的一种工具。
Sarah:你同意 Sam 的观点吗,这真的其实只是处于一条指数级能力增长曲线之上?还是说有一个对你或对客户来说 AGI 有一个重要的定义?
Sridhar:我觉得这确实是一个争议话题,就像 Sam 所说的,我认为有时这也是一个哲学问题,我把它比作,类似潜艇在游动。从某种层面上看这很荒谬,但它确实在“游”。所以我看到这些模型拥有令人难以置信的能力,就像任何一个展望2030年情况的人都会说那就是 AGI 一样。但请记住,Sam 也会说同样的话,尤其在2020年看今天2025年的情形。
对我而言,真正令人震惊的是进步的速度。我由衷地相信,从中将会诞生许多伟大的事物。这就好比,一台性能相当不错的计算机能击败世界上所有会下棋的人。不要紧,我们仍有很多非常擅长下棋的人,所以我认为我们可以从中学到很多东西。至于那个“真正的时刻”,我不觉得这有什么大不了的。
Sarah:我个人有种预感,当人们询问 AGI 时,我认为他们实际上问的是意识,只是他们不总是这么表述,或者至少有很大一部分人是这样。这就像你说的,是个更具哲学性的问题。我想问你,因为你们正在训练更多的模型,你们比任何人都更早看到下一个能力跃迁。在下一批模型中,你看到了哪些“涌现行为”正在改变你们的操作方式,产品愿景、以及 OpenAI 的运营方式?
Sam:接下来一到两年间的模型真的会相当惊人。我们面前还有很大的进步空间,会有很多的改进。就像我们之前看到的从 GPT-3 到 GPT-4 的跃迁中看到的那样,企业现在能做到很多上一代模型完全无法完成的事情。我们之前稍微提到过,一家企业未来能做什么。
比如,拿出你最棘手的问题给它,如果你是一家芯片设计公司,就说“给我设计一款比我之前能设计出的更好的芯片”。如果你是一家生物技术公司,正在尝试治疗某种疾病,那就让它着手处理这个问题,好像这并不遥远。而这些模型能够理解你可能提供给它们的所有上下文信息,连接到各种工具、各种系统、任何接口等等。然后进行深入推理,展现出非常卓越的推理能力,给出答案,并且具有足够的可靠性,让你可以放心地让它们自主开展工作。我之前没想到这一天会这么近,但现在感觉真的已经近在咫尺了。
Sarah:你能给在场的人一些直观的感受,说说哪些知识在当前或者即将在这些模型的能力范围内吗?因为当我想到“核心智能”时,我觉得自己还算聪明,但我脑子里并没有一个完美的物理模拟器,所以我怎么知道哪些事是可行的?
Sam:我常思考的一个框架,这不是我们即将推出的东西,而是类似一种“柏拉图式理想”,一个非常小巧,但它具备超越人类的推理能力。它运行速度极快,能处理一万亿个上下文token的处理能力,还能接入你能想象到的所有工具。
所以问题是什么并不重要,模型里面有没有相关知识或数据也不重要。把这些模型当作数据库来用有点荒谬。这是一个非常慢、成本高且漏洞百出的数据库。但厉害的是,它们能进行推理,如果你把它看作一个推理引擎,我们可以把关于企业的所有可能的上下文都输入进去,再加上他们在这个过程中可能需要的任何工具,比如物理模拟器或其他,那将让人们的能力变得相当惊人。我认为,从发展方向上看,我们正在朝着这个目标前进。
Sarah:太厉害了。我想问你们一个更具推测性的问题。如果计算能力提高1000倍,最初的设想是“无限计算力”,但这就不现实了。要是有1000倍的计算能力,你们会怎么用呢?
Sam:我想我可以先给一个“超元层面”的答案,之后我会给一个更实用的。但真正的答案可能是,我会让它在AI研究上加倍努力,找出如何构建更好的模型,然后再问那个更好的模型,我们该如何利用所有的计算资源。
Sarah: 也就是让它来攻克我们最难的问题(笑)。
Sam:这的确是最理性的做法。
Sarah:你不会真的认可这个答案吧。
Sam:那肯定认可。我想说更有帮助的一点是,我们现在在ChatGPT里,或者在使用我们最新模型的企业中看到了所有这些案例,在测试时间计算方面有实际回报。你知道的,如果你让模型进行更多推理,在难题上多尝试几次,你已经能得到好得多的答案了。
如果有一家企业说,我要为每个问题投入多1000倍的计算资源,那会得到惊人的结果。当然,你实际上不会这么做,而且你也没有多1000倍的计算资源。但现在有这种可能性,我认为这指出了人们如今可以做的一件有趣的事,那就是,“好,我真的要把这当作幂律现象来看待,愿意为我最棘手的问题或最有价值的事情投入更多的计算资源。”
Sarah:Sarah,你在 Snowflake 面对最棘手的问题也是这么做的吗?你已经在数据基础设施、搜索优化和运营 Snowflake 等方面建立了了不起的事业。所以,这只是提出问题那么简单吗?
Sridhar:我觉得用大量计算资源来做这件事会很酷,不过我想换个角度,给一个不同于我们熟悉的科技世界的答案。你知道有个项目叫 Arnome 项目,它有点像我们20年前搞的 DNA 测序项目,但这个项目是要搞清楚 RNA 表达方式。结果发现,它们在很大程度上控制着我们体内蛋白质的运作,如果我们能在这方面取得突破,确切了解 RNA 如何控制 DNA 表达,很可能会解决大量疾病问题,极大推动人类发展。这就相当于用语言模型做类似 DNA 项目那样的事,会是很酷的应用。如果你有大量计算资源可用,能得到这样的结果会非常棒。
Sarah:很有启发性,这也是人类面临的重大问题之一。非常感谢两位的分享,谢谢!