4 个月前更新
4 个月前
d36b0e4f46c1 · 7.5GB
模型
架构deepseek2
·
参数15.7B
·
量化Q3_K_S
7.5GB
参数
{"stop":["User:","Assistant:"]}
32B
模板
{{ if .System }}{{ .System }} {{ end }}{{ if .Prompt }}User: {{ .Prompt }} {{ end }}Assistant:{{ .
111B
许可证
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
自述文件
注意:此模型需要 Ollama 0.1.40。
DeepSeek-V2 是一款强大的专家混合 (MoE) 语言模型,以经济的训练和高效的推理为特点。
注意:此模型支持英语和中文双语。
模型有两种尺寸
- 16B Lite:
ollama run deepseek-v2:16b
- 236B:
ollama run deepseek-v2:236b