【新闻】开源大模型集体爆发,GLM、Deepseek、Mistral齐推新版本

64 次阅读 0 点赞 0 评论 3 分钟原创科技新闻

近期开源大模型迎来密集更新:GLM v4.6强化工具调用,Deepseek v3.2在数学推理夺冠,Mistral Devstral 2崭露头角,开源生态呈现百花齐放态势。

#GLM #Deepseek #Mistral #开源大模型 #工具调用 #数学推理
【新闻】开源大模型集体爆发,GLM、Deepseek、Mistral齐推新版本

【导语】近日,开源大模型领域迎来一波密集发布潮。智谱AI的GLM v4.6在工具调用方面表现突出,深度求索的Deepseek v3.2在国际数学奥赛(IMO)模拟测试中摘得金牌,Mistral的Devstral 2模型也强势登场。Twitter用户Bindu Reddy感叹:“开源正在迎来高光时刻!”这一轮创新浪潮显示出开源社区在特定能力维度上已具备与闭源模型抗衡的实力。

【主体】GLM系列最新版本GLM-4.6V及其轻量版Flash已上线Okara平台。据官方介绍,GLM-4.6V是一款旗舰级视觉语言模型,支持128K上下文和原生多模态工具调用,而Flash版本则针对本地部署和低延迟场景优化。这一更新显著提升了其在复杂任务中的实用性。

在数学推理领域,Deepseek v3.2的表现尤为亮眼。Bindu Reddy在推文中提到:“Deepseek v3.2 wins the IMO gold”,暗示其在高级数学问题求解上已达到顶尖水平。这一成就不仅展示了开源模型在垂直领域的突破,也为教育、科研等场景提供了新工具。

Mistral的Devstral 2模型则被评价为“让Mistral重回地图中心”,显示出欧洲AI力量的持续创新能力。此外,Kimi K2在智能体能力上也被认为“可与闭源模型竞争”,进一步丰富了开源生态的能力矩阵。

值得一提的是,开源创新不仅限于模型本身。Lior Alexander分享了一项名为dLLM的开源方案,可将任意自回归语言模型转换为扩散式LLM,通过移除因果掩码、启用双向注意力并训练模型填充随机掩码令牌,开辟了模型架构转换的新路径。

Bindu Reddy总结道:“Open source is having a moment! … There is more diversity, competition and action in open source.”

Okara团队则宣布:“GLM-4.6V and GLM-4.6V-Flash are now available on Okara.”

【结尾】开源大模型的集体爆发,不仅加速了技术迭代,也推动了AI能力的民主化。随着GLM、Deepseek、Mistral等模型在工具调用、数学推理、智能体等方向取得突破,开发者拥有了更多高性能、可定制的选择。未来,开源与闭源模型的竞争将不再是简单的参数规模比拼,而是围绕特定场景的深度优化与生态整合能力的较量。

最后更新:2025-12-10T13:37:48

评论 (0)

发表评论

blog.comments.form.loading
0/500
加载评论中...