一个强大、经济且高效的混合专家语言模型。

16b 236b

65.9K 4 个月前

自述文件

注意:此模型需要Ollama 0.1.40

DeepSeek-V2 是一种强大的混合专家 (MoE) 语言模型,以经济的训练和高效的推理为特征。

注意:此模型支持英语和中文双语。

该模型提供两种尺寸

  • 16B Lite:ollama run deepseek-v2:16b
  • 236B:ollama run deepseek-v2:236b

参考

GitHub