自从深度求索发布DeepSeek开源大模型以来,开源这一股风就席卷了全球,就连曾经一直高叫着“开源其实是一种智商税”的百度CEO李彦宏,也在DeepSeek爆火之后坦言“DeepSeek让我们明白要将最优秀的模型开源。”最近,开源这股风刮到了韩国。
昨日,LG旗下的人工智能研究中心“LG AI Research”宣布推出韩国首个开源AI推理模型——EXAONE Deep,其团队宣传其擅长数学和代码编程。值得一提是,EXAONE Deep“满血版”的体积十分小巧,仅有320亿参数(32B),而DeepSeek-R1“满血版”则拥有6710亿参数(671B),此外EXAONE Deep还拥有两个轻量化模型,分别为EXAONE Deep-7.8B、EXAONE Deep-2.4B。
虽然参数少,但是胆子大啊。开发团队进行了多项测试,依据测试结果宣称EXAONE Deep拥有3大显著优势:
1、EXAONE Deep-2.4B优于同等规模的其他模型。2、EXAONE Deep-7.8B不仅优于同等规模的开放权重模型,还优于专有推理模型OpenAI o1-mini。3、EXAONE Deep-32B表现出与领先的开源模型相比的性能。
在第一组测试中,EXAONE Deep-32B对比了深度求索开发的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新开发的QwQ-32B。
测试结果显示,EXAONE Deep-32B的数学推理能力较强,在AIME 2024/2025(美国数学邀请赛)中和其他模型不相上下,在CSAT Math 2025(韩国大学修学能力考试)中,甚至超过了DeepSeek-R1“满血版”,不过在GPQA Diamond(跨学科博士级测试钻石组)和LiveCodeBench编程测试中则要明显弱于DeepSeek-R1“满血版”。
在第二组测试中,开发团队使用的是7.8B参数的小模型,同步对比了DeepSeek-R1-7B和8B,也加入了OpenAI-o1-mini模型,结果显示EXAONE Deep-7.8B均胜过参数量相近的其他模型。
目前EXAONE Deep已经正式发布,可通过Ollama之类的框架工具进行部署,因为体积较小,大家可以本地部署实测一下。