中国AI初创公司MiniMax宣布开源其大语言模型MiniMax M2。该模型专为代理工作流和端到端编码任务打造,每令牌成本仅为Anthropic Claude Sonnet的8%,处理速度提升约两倍。MiniMax M2采用混合专家(MoE)架构,总参数量达2300亿,但推理时仅激活100亿参数,支持大上下文窗口和高输出能力。其核心优势在于具备高级编码能力和高代理性能,在综合智能指标基准测试中,表现超越部分闭源模型,位列全球开源模型之首。该模型以Apache2.0许可证开源,提供全球限时免费访问,模型权重已上架Hugging Face平台,适用于对安全性要求较高的场景。访问地址:https://huggingface.co/MiniMaxAI/MiniMax-M2,https://platform.minimax.io/docs/guides/text-generation。
