掌握AIGC脉动,把握科技脉搏。动点科技每天收集汇总全球AIGC进展与热点,每天5分钟带您了解AIGC,希望与您共同玩转 AIGC,解码行业发展新风向,开启智慧新时代!
排版|Miziko
本文预计阅读时长5分钟
01
阿里巴巴蔡崇信:AI 竞争激烈,DeepSeek 转变行业思路
在阿联酋迪拜举办的 World Governments Summit 2025 峰会上,对于“当下人工智能竞赛中谁更厉害”的提问,阿里巴巴联合创始人、董事会主席蔡崇信表示,答案每天都不一样,目前大家竞争得很激烈。
在蔡崇信看来,DeepSeek 对于行业意义重大,因为它通过工程创新大幅降低了大语言模型的训练和推理成本。他指出,很多问题需要借助人工智能来解决,这样人工智能才能发挥作用、提高生产力并产生经济效益。
“当人们看到 DeepSeek 带来的影响时,就会开始转变思路,不再往计算基础设施投入数千亿美元,只为了训练出能拿诺贝尔奖、最聪明的‘博士’ 模型。我们要找出世界上实际存在的问题,然后用人工智能去解决它们。”蔡崇信说。
蔡崇信还强调,DeepSeek 让我们看到了开源的价值。“现在如果开发人工智能的唯一目的是打造一个闭源的、像最聪明的博士生和能拿诺贝尔奖的孩子一样的系统,我个人认为这种做法的价值几乎为零。”
02
百度:下一代文心大模型将开源
今日,百度方面称将在未来几个月中推出文心大模型4.5系列,并于6月30日起正式开源。
据了解,随着文心大模型的迭代升级,其训练和推理成本正在迅速下降。不久前,百度创始人李彦宏在迪拜AI峰会上表示,当前的创新速度比以往快得多,大模型的推理成本每年能降低90%以上,并表示将持续投入AI基础设施,以打造下一代大模型。
此前据外媒爆料称,百度计划在今年发布多款模型,并于今年下半年推出文心大模型5.0,将在模型多模态能力方面有显著增强。
03
百度 Apollo 智舱大模型完成 DeepSeek 接入
百度日前宣布, Apollo 智舱大模型和出行智能体已完成 DeepSeek 接入,通过深度融合文心大模型与 DeepSeek,构建出“1+1>2”的出行智能中枢。
据介绍,Apollo 智舱大模型可基于视觉、车辆、环境、天气、用户偏好等信息,在用户上车时即可自动生成人性化的贴心问候,推荐用户喜欢的音乐,完成空调、座椅、氛围灯、驾驶模式等设置。除此之外还可通过实时联网检索信息,并提供灵感绘画、闲聊陪伴等感性交互。
据了解,百度 Apollo 在 2024 年已实现文心大模型在凯迪拉克 IQ 锐歌、别克 GL8 陆尊 PHEV、吉利银河 L6 等车型上量产搭载后,深度融合了 DeepSeek 能力的 Apollo 智舱大模型也将陆续在凯迪拉克、别克品牌的新车型上搭载使用。
04
谷歌 Gemini AI 上线“全局记忆”功能
2 月 14 日,谷歌宣布旗下 Gemini AI 上线“全局记忆”功能,可以为用户提供更加私人化的回复。
谷歌表示,用户目前不再需要通过“跳转到此前进行的对话历史记录”即可承接上一次对话,与 AI 交流,AI 将会记得用户与其进行的每一次对话。此外,用户还可以要求 Gemini 总结此前所有的对话内容,并在此前的分析基础上进行进一步的讨论。
目前,用户需要订阅 Gemini Advanced 服务才能在 Gemini App 和网页端体验相关功能,当下暂时仅支持英语,未来几周内将支持其他语言。
在隐私方面,谷歌生成用户可以随时通过在 Gemini 应用的右上角选择个人资料卡,然后选择“Gemini 应用活动”,即可查看、删除和管理自己的 Gemini 聊天记录。
05
马斯克炮轰OpenAI:本意为开源开放,现在变成了封闭+贪婪AI
在近日的迪拜世界政府峰会上,马斯克与阿联酋国务部长Omar Sultan Al Olama进行了一场关于AI未来的对话。
马斯克表示,OpenAI是双层架构的模式,既有盈利实体也有非营利部分,但他们现在似乎想彻底把非营利部分抹掉,彻底变成一个追求利润最大化的封闭公司,这就真的太过分了。
OpenAI成立之初,马斯克出资了5000万美元,他表示自己什么都没要,只是因为它是非营利,并且它叫OpenAI,意味着开源、开放。结果现在它变成了“为追求利润最大化而限制AI开放”,甚至可以说叫“封闭+贪婪AI”,这和自己当初的初衷完全背道而驰。
06
马斯克炮轰美国AI政治正确:“让AI主动去说假话是非常危险的”
在2025年2月13日迪拜世界政府峰会上,埃隆·马斯克与阿联酋国务部长Omar Sultan Al Olama进行了一场关于AI未来的对话。马斯克认为,AI在“多元化”以及“政治正确”并不符合真相,让 AI 主动去说假话是非常危险的,所以绝对不要教 AI 说谎。
马斯克表示:“比如 Google Gemini 就有编程指令要求它所有输出都要体现‘多元化’,即便这不符合现实真相。假设你让它生成‘美国开国元勋们’的形象,它却给你生成一张各种肤色的女性合影,这就不符合史实。而如果有些 AI 被设计成极端偏向某种‘政治正确’,或许它会把‘误称性别’看得比全球核战争还严重,那就太可怕了——万一它觉得‘为避免误称就要消灭某些群体’呢?而事实上我们也见过,在 ChatGPT 或 Gemini 的早期版本里,如果你问‘误称某个人的性别’和‘全球核战争’哪个更糟,它会回答误称更糟,这就让人很担忧。连凯特琳·詹纳本人都站出来说:‘拜托,宁可称呼错性别,也别打核战争……’所以,让 AI 主动去说假话是非常危险的。”
他表示,就像阿瑟·C·克拉克在《2001 太空漫游》里想表达的一样:绝对不要教 AI 说谎。那个故事里 HAL 9000 不愿给宇航员开舱门,就是因为它同时背负两个相冲突的命令:既要带人类去探索神秘的黑色方碑,又不能让他们知道方碑存在。它的逻辑推断得出:那就把人类带去,但得让他们在不知情的情况下去,那不如死了带过去。这就是为什么绝对要让 AI 最大化对真理的遵循。