DeepSeek的第一代推理模型,性能与OpenAI-o1相当,包括基于Llama和Qwen的DeepSeek-R1提炼出的六个密集模型。

1.5b 7b 8b 14b 32b 70b 671b

770万 13 天前

自述文件

DeepSeek的第一代推理模型,在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。

模型

DeepSeek-R1

ollama run deepseek-r1:671b

提炼模型

DeepSeek 团队已经证明,大型模型的推理模式可以被提炼到小型模型中,与通过在小型模型上进行强化学习 (RL) 发现的推理模式相比,从而获得更好的性能。

以下是通过使用 DeepSeek-R1 生成的推理数据,针对研究社区广泛使用的几种密集模型进行微调而创建的模型。评估结果表明,提炼出的小型密集模型在基准测试中表现非常出色。

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

许可证

模型权重根据 MIT 许可证获得许可。DeepSeek-R1 系列支持商业用途,允许任何修改和衍生作品,包括但不限于为训练其他 LLM 进行提炼。请注意

Qwen 提炼模型源自 Qwen-2.5 系列,该系列最初根据 Apache 2.0 许可证获得许可,现在使用 DeepSeek-R1 精选的 80 万个样本进行微调。

Llama 8B 提炼模型源自 Llama3.1-8B-Base,最初根据 llama3.1 许可证获得许可。

Llama 70B 提炼模型源自 Llama3.3-70B-Instruct,最初根据 llama3.3 许可证获得许可。