MiniMax开源M2.1编程模型并在端侧推理突围

匿名作者
2026-01-01 11:37258

MiniMax 正式开源 M2.1 编程模型,不仅获得 vLLM 首日支持,更通过 KTransformers 技术实现了 RTX5090 上的本地高效推理,配合9.9元的“交个朋友”定价,全力构建开发者生态。

性能与本地推理的双重优化

国内 AI 独角兽 MiniMax 近日宣布开源其最新的 M2.1 编程模型,并在 Hugging Face、ModelScope 及 GitHub 同步上线。这款模型的最大亮点不仅在于代码生成能力的提升,更在于其对推理效率的极致优化。

M2.1 获得了 vLLM 框架的 “Day-0” 支持,意味着开发者无需等待适配即可享受最先进的推理加速。更令人瞩目是,MiniMax 利用 KTransformers 技术,成功让大模型在消费级旗舰显卡 RTX5090 上实现了高效的 FP8 本地推理。这一突破极大降低了高算力模型的部署门槛,让个人开发者和中小企业也能在本地设备上流畅运行顶尖的编程大模型。

Google_AI_Studio_2026-01-01T03_31_41.476Z.png

图源备注:图片由AI生成

低价策略构建开发者护城河

技术突围之外,MiniMax 在市场策略上也祭出了大招。为配合 M2.1 的发布,公司推出了极具侵略性的 “Coding Plan”。其中,“9.9元月度 Starter 套餐” 的返场活动尤为吸睛——国内用户仅需一杯奶茶钱,即可获得每5小时40次的生成权益。

这种近乎免费的定价策略,配合“好友邀请”的双向折扣活动,显示出 MiniMax 抢占开发者入口的决心。在 AI 应用落地加速的2026年,谁能聚集更多的开发者,谁就掌握了应用生态的主动权。M2.1 的开源与低价策略,正是 MiniMax 构建技术护城河的关键一步。

评论 (0)

暂无评论,快来发表第一条评论吧!

AI 技术峰会

2025 AI 技术峰会

AI 实战课程

AI 实战课程

热门工具

AI 助手

智能对话,提升效率

智能图像处理

一键美化,智能修图

AI 翻译

多语言实时翻译