更新于 7 months ago
7 months ago
15c96490eeee · 31GB
model
archdeepseek2
·
parameters15.7B
·
quantizationF16
31GB
params
{ "stop": [ "User:", "Assistant:" ] }
32B
template
{{ if .System }}{{ .System }} {{ end }}{{ if .Prompt }}User: {{ .Prompt }} {{ end }}Assistant:{{ .
111B
license
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
自述文件
注意:此模型需要 Ollama 0.1.40。
DeepSeek-V2 是一款强大的混合专家 (MoE) 语言模型,其特点是训练经济高效且推理高效。
注意:此模型为英语和中文双语模型。
该模型有两种尺寸
- 16B Lite:
ollama run deepseek-v2:16b
- 236B:
ollama run deepseek-v2:236b