中国AI公司MiniMax推出新LLM,支援400万Token与多模态应用

中国人工智慧公司MiniMax相比之下,其他模型在处理长文本时的性能下降较为明显,例如GPT-4o在上下文长度达1.6万Token时准确率降至89%,Claude-3.5-Sonnet在超过12.8万Token时,准确率下降至约93.8%。Google主打可处理长上下文的模型Gemini-2.0-Flash,也在25.6万Token测试中准确率降至79.7%。而MiniMax-Text-01在100万Token的超长文本环境中,仍能稳定保持91%的准确率。

此外,MiniMax-Text-01在翻译与推理基准测试MTOB和GPQA中,长文本翻译精度和复杂推理任务均表现稳定。

MiniMax-01系列模型采用新架构,结合Lightning Attention、Mixture-of-Experts (MoE) 和Softmax Attention,实现高效计算资源分配。在推理过程中,其计算效率接近线性复杂度,这代表在处理长文本时能以更低的资源成本完成高效推论。

官方还公布了MiniMax-VL-01在多模态基准测试中的结果,其在影像与文本整合应用中的能力突出,适用于智慧助理和多媒体内容生成等场景。此外,MiniMax提供具竞争力的API价格,每百万输入Token只要0.2美元,每百万Token输出仅需1.1美元。

不过,MiniMax为一家中国人工智慧公司,其模型在设计和开发过程受到中国政府的审查与政策约束,这可能在处理涉及政策敏感问题的应用场景时产生一定限制。因此,企业在采用MiniMax模型时,应充分考虑其技术特性和可能产生的风险。