Mistral AI与NVIDIA合作开发的先进12B模型,拥有128k上下文长度。

工具 12b

646K 4个月前

自述文件

Mistral NeMo是由Mistral AI与NVIDIA合作开发的12B模型,拥有高达128k tokens的大上下文窗口。其推理能力、世界知识和编码精度在其规模类别中处于最先进水平。由于它依赖于标准架构,Mistral NeMo易于使用,并且可以作为任何使用Mistral 7B系统的直接替代品。

nemo-base-performance.png

参考

博客

Hugging Face