一个强大的混合专家模型 (MoE),总参数量为 6710 亿,每个 token 激活 370 亿参数。

671b

159.5K 3周前

Readme

注意:此模型需要 Ollama 0.5.5 或更高版本。

DeepSeek-V3 在推理速度上相比之前的模型取得了重大突破。它在开源模型中名列前茅,并与全球最先进的闭源模型相媲美。

参考

GitHub

论文