一个先进的12B模型,具有128k上下文长度,由Mistral AI与NVIDIA合作构建。

工具 12b

1.3M 7 个月前

Readme

Mistral NeMo 是一个与 NVIDIA 合作构建的 12B 模型。Mistral NeMo 提供高达 128k tokens 的大上下文窗口。它的推理、世界知识和编码准确性在其大小类别中是最先进的。由于它依赖于标准架构,Mistral NeMo 易于使用,并且可以替代任何使用 Mistral 7B 的系统。

nemo-base-performance.png

参考

博客

Hugging Face