由 Mistral AI 与 NVIDIA 合作构建的先进 12B 模型,具有 128k 上下文长度。

tools 12b

1.1M 6 个月前

说明

Mistral NeMo 是一个与 NVIDIA 合作构建的 12B 模型。Mistral NeMo 提供了高达 128k tokens 的大上下文窗口。其推理能力、世界知识和代码准确性在其规模类别中处于领先水平。由于它基于标准架构,Mistral NeMo 易于使用,并且可以作为任何使用 Mistral 7B 的系统中的直接替代品。

nemo-base-performance.png

参考

博客

Hugging Face