由 Mistral AI 与 NVIDIA 合作构建的先进的 12B 模型,具有 128k 的上下文长度。

工具 12b

130万 7 个月前

自述文件

Mistral NeMo 是与 NVIDIA 合作构建的 12B 模型。 Mistral NeMo 提供高达 128k tokens 的大型上下文窗口。 它的推理、世界知识和编码准确性在其尺寸类别中处于最先进水平。 由于它依赖于标准架构,因此 Mistral NeMo 易于使用,并且可以作为使用 Mistral 7B 的任何系统中的直接替代品。

nemo-base-performance.png

参考

博客

Hugging Face