Mixtral 8x22B 为开放模型树立了新基准

Mixtral 8x22B 为开放模型树立了新基准

Mistral AI 发布了Mixtral 8x22B,为开源模型的性能和效率树立了新的标杆。该模型拥有强大的多语言功能以及卓越的数学和编码能力。

Mixtral 8x22B 作为稀疏专家混合 (SMoE) 模型运行,在活动时仅利用其 1410 亿个参数中的 390 亿个。

除了效率之外,Mixtral 8x22B 还可以流利地使用多种主要语言,包括英语、法语、意大利语、德语和西班牙语。它的熟练程度延伸到具有强大数学和编码能力的技术领域。值得注意的是,该模型支持本机函数调用与“受限输出模式”相结合,促进大规模应用程序开发和技术升级。

Mixtral 8x22B 具有大量 64K 令牌上下文窗口,可确保从大量文档中精确调用信息,进一步吸引需要处理大量数据集的企业级应用。

为了培育协作和创新的人工智能研究环境,Mistral AI 在 Apache 2.0 许可证下发布了 Mixtral 8x22B。这种高度宽松的开源许可证可确保无限制使用并实现广泛采用。

从统计数据来看,Mixtral 8x22B 超越了许多现有型号。在与标准行业基准的正面比较中——从常识、推理到特定主题的知识——米斯特拉尔的新创新表现出色。 Mistral AI 发布的数据表明,Mixtral 8x22B 在关键推理和知识基准的不同语言环境中显着优于 LLaMA 2 70B 模型:

此外,在编码和数学领域,Mixtral 继续在开放模型中占据主导地位。更新的结果显示,在发布模型的指导版本后,数学基准的性能得到了令人印象深刻的改进:

我们敦促潜在用户和开发人员在Mistral AI 的交互平台La Plateforme上探索 Mixtral 8x22B 。在这里,他们可以直接与模型互动。

在人工智能的作用不断扩大的时代,Mixtral 8x22B 融合了高性能、高效率和开放式可访问性,标志着高级人工智能工具民主化的一个重要里程碑。