DeepSeek-V3.1正式发布,叫板OpenAI,适配下一代国产芯片

本次DeepSeek-V3.1的发布也似有与GPT5对垒的意味。

凤凰网科技讯 8月21日,DeepSeek正式发布V3.1版本,并将其称为“迈向 Agent 时代的第一步”。与以往的大模型迭代不同,它最大的特征是混合推理架构,一个模型同时支持思考模式与非思考模式。这意味着模型在保持性能稳定的同时,能够根据需求选择是快速给出答案,还是展开更长链路的推理。

更重要的是,经过思维链压缩训练,新版模型在生成结果时的token数量减少了20%至 50%(同前代模型DeepSeek-R1-0528相比),这不仅带来响应速度的提升,也直接降低了使用成本。

配合128K的上下文扩展和FP8精度推理,V3.1在工程层面强化了吞吐效率与能耗表现,为大规模应用打下基础。

除了推理效率上的改进,V3.1在智能体能力上的进化尤为关键。官方测试显示,在代码修复和命令行任务等编程智能体场景中,新模型展现出更强的执行力和稳定性,能够在真实环境中完成多轮迭代修正,避免“越改越乱”的问题。

在复杂搜索任务上,V3.1则展现了更成熟的检索与整合能力:它可以规划搜索步骤、筛选证据并综合多源信息,在高难度的多学科题目测试中,性能已经远超前代模型。

在商业与生态层面,DeepSeek选择了“双轨”策略:一方面继续提供API服务,但将于 9月6日起调整价格并取消夜间优惠;另一方面,V3.1的Base模型与后训练版本已在 Hugging Face和魔搭同步开源。

值得一提的是,在这一次的官方发布说明中,DeepSeek提到“V3.1 使用了 UE8M0 FP8 Scale的参数精度”,更为通俗的说,它设置了一个适配于即将发布的新一代国产芯片的技术规范与设计标准。“建议有部署需求的用户仔细阅读新版说明文档。”而在此之前,国产芯片部署DeepSeek通常会有一定性能减弱,除非再做专门的软件适配。

本次DeepSeek-V3.1的发布也似有与GPT5对垒的意味,都支持超长上下文,都有更强的复杂任务处理能力,基础模型调用更为灵活,成本更为弹性。

打开APP阅读更多精彩内容