一个由 Mistral AI 与 NVIDIA 合作开发的,拥有 128k 上下文长度的 12B 模型,处于同类模型中的领先水平。

工具 12b

488.4K 3 个月前

自述文件

Mistral NeMo 是一个与 NVIDIA 合作开发的 12B 模型。 Mistral NeMo 提供高达 128k 个 token 的大上下文窗口。 它的推理、世界知识和编码准确性在其尺寸类别中处于领先水平。 由于它依赖于标准架构,Mistral NeMo 易于使用,并且可以作为使用 Mistral 7B 的任何系统中的直接替代方案。

nemo-base-performance.png

参考

博客

Hugging Face