- +1
MiniMax发布开源混合架构推理模型M1
澎湃新闻记者 喻琰
字号
6月17日,上海AI独角兽MiniMax正式开源推理模型MiniMax-M1(以下简称“M1”)。MiniMax称,这是全球首个开放权重的大规模混合注意力推理模型。凭借混合门控专家架构(Mixture-of-Experts,MoE)与 Lightning Attention 的结合,M1在性能表现和推理效率方面实现了显著突破。实测数据显示,M1系列在长上下文理解、代码生成等生产力场景中超越多数闭源模型,仅微弱差距落后于顶尖闭源系统。

开源报告截图 来源:MiniMax提供
M1支持目前业内最高100万token上下文输入,同时支持最多8万token输出。成本表现方面,在进行8万Token的深度推理时,M1所需的算力仅为DeepSeek R1的约30%;生成10万token时,推理算力只需要DeepSeek R1的25%。MiniMax表示,M1整个强化学习阶段只用到512块H800三周时间,租赁成本为53.74万美元。
天使投资人、资深人工智能专家郭涛向澎湃科技(www.thepaper.cn)分析认为,目前国内大模型市场格局早已形成,大模型竞争不仅仅是技术的竞争,而是算力、数据、应用场景等整个生态的竞争。此次MiniMax更新填补了开源领域长上下文技术的空白,更以“开源+场景化”路径打破技术垄断,为国产大模型迈向实用化树立新标杆。
责任编辑:宦艳红
图片编辑:施佳慧
校对:刘威
澎湃新闻报料:021-962866
澎湃新闻,未经授权不得转载
+1
收藏
我要举报





查看更多
澎湃矩阵
新闻报料
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2025 上海东方报业有限公司
反馈




