一个开源的专家混合模型代码语言模型,其在特定代码任务中的性能可与 GPT4-Turbo 相媲美。

16b 236b

423.5K 3个月前

自述文件

DeepSeek-Coder-V2是一个开源的专家混合模型(MoE)代码语言模型,其在特定代码任务中的性能可与GPT4-Turbo相媲美。DeepSeek-Coder-V2从DeepSeek-Coder-V2-Base进一步预训练,使用了来自高质量和多源语料库的6万亿个token。

参考文献

Hugging Face