一款强大、经济高效的专家混合语言模型。

16b 236b

70.9K 5个月前

自述文件

注意:此模型需要Ollama 0.1.40

DeepSeek-V2是一个强大的专家混合 (MoE) 语言模型,其特点是训练经济且推理效率高。

注意:此模型支持英语和中文双语。

该模型有两种尺寸

  • 16B 精简版:ollama run deepseek-v2:16b
  • 236B:ollama run deepseek-v2:236b

参考资料

GitHub