DIGIPUNK
去投稿
发表于:2024年07月26日

Mistral AI推出1230亿参数Mistral Large 2,性能媲美Llama 3.1

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
要点速达👈
  • 🚀 Mistral AI发布1230亿参数的Mistral Large 2。
  • 🌍 支持多种语言,包括中文和法语。
  • 💻 精通80多种编码语言,支持高级函数调用。
  • 🔢 在代码生成和数学领域表现卓越。
  • 🧪 允许研究和非商业用途的使用和修改。

数智朋克报道,Mistral AI正式推出新一代大模型Mistral Large 2,具备1230亿参数,在多个基准测试中表现出色,尤其在代码生成和数学领域,几乎与Llama 3.1 4050亿参数的模型相媲美。Mistral Large 2经过大量源代码和多语言数据的训练,提供高级函数调用功能,并且支持多种语言,包括英语、法语、德语、中文等。

该模型特别精通编程,接受过超过80种编码语言的训练,如Python、Java、C、C++、JavaScript、Bash等,还涵盖了Swift和Fortran等特定语言。它具备一流的代理功能,支持本地函数调用和JSON输出,同时在数学和推理能力上表现出色。

Mistral Large 2允许在研究和非商业用途下使用和修改,其大上下文窗口达到128k,适用于处理复杂的对话和指令。在HumanEval和MultiPL-E测试中,该模型的表现超过了Llama 3.1 4050亿指令,仅略逊于GPT-4o。在MATH测试中,零样本无CoT条件下,其表现略低于GPT-4o。

在多语言MMLU测试中,Mistral Large 2的性能显著优于Llama 3.1 70亿基础版,平均提升6.3%,与Llama 3.1 4050亿参数模型性能相当,仅低0.4%。与前代相比,Mistral Large 2在模型对齐和指令遵循能力上进行了优化,特别是在处理长时间多轮对话时表现出色,在WildBench、ArenaHard和MT Bench测试中,其性能与最佳模型相当,同时显著减少了冗余输出。

用户可通过chat.mistral.ai进行试用,体验其强大的功能和优异的性能。

本文链接: https://www.shuzhipunk.com/articles/J1Dt1tQ0Oq7
转载请注明文章出处

文章所属标签
Mistral AI
Mistral Large 2
大模型