一个强大、经济且高效的混合专家语言模型。

16b 236b

102K 7 months ago

自述文件

注意:此模型需要 Ollama 0.1.40

DeepSeek-V2 是一款强大的混合专家 (MoE) 语言模型,其特点是训练经济高效且推理高效。

注意:此模型为英语和中文双语模型。

该模型有两种尺寸

  • 16B Lite: ollama run deepseek-v2:16b
  • 236B: ollama run deepseek-v2:236b

参考

GitHub