2月14日,大模型云服务商硅基流动(SilliconFlow)宣布联合北京昇腾人工智能计算中心,全面支持基于昇腾算力的DeepSeek系列模型的私有化集群部署。
此前,硅基流动大模型云服务平台SiliconCloud首发上线了基于昇腾算力的满血版DeepSeek R1/V3模型,率先走通了在国产芯片部署DeepSeek模型的路径。
时间倒回至春节假期的2月1日,华为云宣布联合硅基流动推出基于昇腾云服务的DeepSeek R1/V3推理服务。彼时,华为云、硅基流动的官方公众号相隔一分钟官宣,标题均突出“首发”二字,内文用“连日攻坚”概括了团队的努力。
首发
硅基流动创始人袁进辉曾总结,硅基流动的技术核心是提供一个推理引擎,主要向企业提供高性能LLM推理和训练解决方案,帮助企业高效地部署AI应用。DeepSeek V3是震惊全球科技圈的开源、推理大模型,硅基流动与之适配提供服务尤其对口。
在DeepSeek V3大模型发布前,DeepSeek创始人梁文锋就曾问袁进辉,硅基流动要不要部署?彼时,梁文锋甚至给出了建议:最少20台H800(英伟达GPU芯片),80台最好,10台也可以,就是有点慢。
袁进辉算了一笔账:一个月80台服务器的净花费就得五六百万,“还不一定能用满,风险太大了”。他没有下注。
看到DeepSeek创造一个又一个奇迹,袁进辉焦急且苦于没有充沛的算力资源,直到一位同事突发奇想,“国产卡多,用国产卡吧”。
硅基流动向华为云主动提出了合作想法。
华为采用自研的达芬奇架构,开发了昇腾910和昇腾310两款AI处理器芯片,而华为云又上线了昇腾AI云服务,至今约一年半时间,面向企业提供一键接入获取AI算力的服务。
华为昇腾AI云服务有一个“百模千态”专区,其中除了华为自家的盘古大模型外,还能适配业界主流的上百个开源大模型,从而支撑企业和开发者更快速地创建自己的大模型应用。
开源的DeepSeek何其火爆,接入想法让硅基流动和华为云一拍即合。华为云负责调配算力资源,硅基流动负责让模型在GPU上可以运行并具备问答能力,同时确保模型运行稳定、不损失精度,且运行速度尽可能快。
2025年春节,硅基流动团队和华为云各业务团队几乎无休,DeepSeek团队也在全程提供了很多经验。
2月1日凌晨1点多,距离官宣基于华为昇腾的DeepSeek R1/V3推理服务上线还有10个多小时,硅基流动的一位高管发了一条朋友圈:平台接入了DeepSeek系列模型,且API服务价格与DeepSeek官网同价。
2月1日当天,“硅基流动”的微信指数从过去的几乎为0环比飙升了8831.35%。当时,硅基流动是DeepSeek官方之外,第一个提供基于国产芯片的671B满血模型MaaS云服务的平台。
趁着热度,硅基流动也发布了一波招聘计划,其中开放的视觉生成推理引擎工程师、异构硬件适配工程师、交付研发工程师等全职岗位有15个,还有与生成式AI相关的算法、平台前端、平台后端等方向的实习工程师职位8个。
API服务竞争暗涌
“要考虑并发,以及后续并发是否有限制。”一位与华为云合作接入DeepSeek-R1的AI应用厂商负责人称,这是所有要接入的平台企业或者应用产品都会考虑的事情,背后的难题主要由华为云方面在解决。
布局DeepSeek API服务,不只是腾讯、阿里、百度等巨头争抢的生意,不少模型创新企业也参与其中。
提供模型云服务的供应商虽多,但上述硅基流动高管看到,已经有模型测试相关人士给用户提供了一些判断的依据,比如供应商提供的是否为原版的671B参数规模?供应商提供服务的上下文窗口(语言模型在进行预测或生成文本时,所考虑的前一个词元即Token或文本片段的大小范围)大小是否为正常的64K+?最后还有AI辅助编程请求的通过情况,供应商对AI模型技术的应用是否受TPM(设备管理,一般在10W台以上)的限制。
陈天楚在浙江大学ARClab负责大模型相关研究,他看到,接入DeepSeek的各个云厂商,面向的客户、官宣的成本控制和定价计划有区别。例如,有的厂商提供满血版,有的则是量化压缩版,还有提供蒸馏后的小模型。
陈天楚认为,除了提供标准化的模型API服务外,云厂商间的较量主要集中在能否提供个性化服务。像硅基流动就在上线671B的DeepSeek V3/R1旗舰模型后,又上线了6款DeepSeek R1蒸馏版模型,其中的8B、7B、1.5B模型免费,企业或个人用户、开发者使用模型或基于模型开发AI应用时,能直接调用硅基流动的SiliconCloud平台上的API,简单易用。
截至2月13日,有来自模型测试人士的结果反馈,在提供DeepSeek API服务的主流供应商中,和华为云深度合作的硅基流动,其AI服务响应的推理、生成以及平均速度,不仅优于承载压力过大的DeepSeek官方,更与腾讯云、阿里云等厂商拉开了距离。
“+DeepSeek”效果待定
得益于春节假期的突击作战,年后上班第一天(2月5日),华为推出了基于原生鸿蒙操作系统的小艺助手App,既接入了DeepSeek模型推理能力,还在“智能体”选项中上架了DeepSeek-R1的Beta版。
短短5天后,华为智能手机纯血鸿蒙版小艺App的DeepSeek-R1智能体升级为正式版,新增“联网搜索”功能,知识库变得更丰富,时效性也更强。
2月13日,记者在广州一家华为手机线下销售门店体验。所有更新为纯血鸿蒙系统的手机上,小艺从过去在系统内可被唤醒的智慧语音助手服务,变成一个独立的应用产品。进入小艺App,便可以与“她”问答对话,也能在第三方智能体中直接点击DeepSeek-R1,进入深度思考对话,不用下载第三方App。
华为拥有自研的盘古AI大模型,小艺就是通过盘古大模型训练出来的。纯血鸿蒙中的小艺,在成为一个独立应用后,其使用界面中有突出DeepSeek的方面。
记者看到,门店销售人员手中的参考资料上,除了有“怎么说”“怎么做”来体验小艺,还有盘古大模型区别普通数据模型的一些对比,会强调盘古大模型拥有扎根中文的独特优势。对DeepSeek,材料并未提及。
上述AI应用厂商负责人在接受经济观察网记者采访时,给出了产品接入DeepSeek模型能力后关键指标的变化。
“大模型幻觉变少,任务成功率变高。”该负责人透露,其团队在用DeepSeek的模型执行某项任务时,失败率基本为0。接入这一明星大模型后,模型幻觉有所减少,但他指出,大模型幻觉作为共性问题,仍有待解决。
其实,该负责人所在的AI企业也有巨额投入创新自研的通用大模型以及针对行业应用的专属大模型。他告诉记者,目前业内集体涌向DeepSeek,普遍做法并非是用DeepSeek系列模型与自身现有模型融合,而是用DeepSeek的模型来开拓新的应用场景。
这位负责人与陈天楚有共识,DeepSeek是推理模型,实效性并非其的优势,但却可以通过模型云服务商等AI基础设施赋能。
一位平台高管跟很多主流大模型厂商讨论过智能体在各个硬件终端上打通的问题,在她看来,这也是DeepSeek未来技术落地以及当前业内“+DeepSeek”风潮后的发展方向,“每个硬件都可能成为智能体的入口,通过执行人类的任务来训练专属个人的智能体”。
为什么是硅基流动
硅基流动创始人袁进辉是一名连续创业者,他在2017年成立的一流科技(OneFlow),在国内2023年涌起AI大模型风潮后,估值一度超数亿美元。
同年,美团联合创始人王慧文创业了大模型公司光年之外,他提出通过并购OneFlow的方式,邀请袁进辉加入光年之外成为联合创始人。光年之外后被美团收购,袁进辉在2023年8月宣布回归到AI基础设施领域继续创业,创立了硅基流动。
硅基即芯片,而流动有软件之意,这一名称也与袁进辉此前创立的一流科技形成呼应,让芯片的算力在软件基础上跑起来。
加速AGI普惠人类,是硅基流动官方公众号上的简介,袁进辉不止一次在公开场合表示,其目标是为广大的开发者提供基于AI模型进行应用创新的关键“铲子”,让开发者实现Token自由。
硅基流动去年年中推出SiliconCloud后,不仅日均调用量超千亿Token,针对多个主流模型的服务还提出了永久免费。
“面向C端用户的大模型App,以后都全面免费了。”袁进辉2月14日表示,国内模型厂商很难对C端用户收取订阅费,多是厂商自己负担算力成本。
在袁进辉看来,模型厂商只有获取用户后才有办法去变现。
数据显示,DeepSeek的应用访问使用量正呈现指数级上升,成为目前最快突破3000万日活跃用户量的应用程序。