DeepSeek 第一代推理模型,性能与 OpenAI-o1 相媲美,包括六个从 DeepSeek-R1 基于 Llama 和 Qwen 蒸馏出的密集模型。
1.5b 7b 8b 14b 32b 70b 671b
770万 下载 更新于 13 天前
更新于 2 周前
2 周前
b3e50d21d5a9 · 3.6GB
模型
archqwen2
·
parameters1.78B
·
quantizationF16
3.6GB
参数
{ "stop": [ "<|begin of sentence|>", "<|end of sentence|>",
148B
模板
{{- if .System }}{{ .System }}{{ end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice
387B
许可证
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
自述文件
DeepSeek 第一代推理模型,在数学、代码和推理任务中实现了与 OpenAI-o1 相媲美的性能。
模型
DeepSeek-R1
ollama run deepseek-r1:671b
蒸馏模型
DeepSeek 团队已证明,大型模型的推理模式可以被蒸馏到小型模型中,从而获得比通过小型模型的强化学习发现的推理模式更好的性能。
以下是通过使用 DeepSeek-R1 生成的推理数据,针对研究社区广泛使用的几个密集模型进行微调而创建的模型。评估结果表明,蒸馏后的小型密集模型在基准测试中表现非常出色。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
许可证
模型权重根据 MIT 许可证获得许可。DeepSeek-R1 系列支持商业用途,允许任何修改和衍生作品,包括但不限于用于训练其他大型语言模型的蒸馏。请注意
Qwen 蒸馏模型来源于 Qwen-2.5 系列,最初根据 Apache 2.0 许可证获得许可,现在使用 DeepSeek-R1 精选的 80 万个样本进行微调。
Llama 8B 蒸馏模型来源于 Llama3.1-8B-Base,最初根据 llama3.1 许可证获得许可。
Llama 70B 蒸馏模型来源于 Llama3.3-70B-Instruct,最初根据 llama3.3 许可证获得许可。