2 个月前更新
2 个月前
f37bcc863826 · 142GB
模型
架构deepseek2
·
参数236B
·
量化Q4_K_M
142GB
参数
{"stop":["User:","Assistant:"]}
32B
模板
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
许可证
MIT 许可证 版权所有 (c) 2023 DeepSeek 特此授予任何人员免费获得本软件及其相关文檔的拷贝,不受限制地处置本软件,包括但不限于使用、复制、修改、合并、发布、分发、授权和/或销售本软件的拷贝,并允许其使用本软件的人员在其提供的软件上进行上述行为,但须满足以下条件:
1.1kB
许可证
DEEPSEEK 许可协议 版本 1.0,2023 年 10 月 23 日 版权所有 (c) 2023 DeepSeek 第 I 部分:前言 本协议是 DeepSeek 与任何使用、复制、修改、合并、发布、分发、授权、销售、导入、出口或以其他方式使用 DeepSeek 产品或服务的人员(以下称“您”)之间关于 DeepSeek 产品和服务的许可协议。DeepSeek 保留 DeepSeek 产品和服务的版权、专利和所有其他知识产权,DeepSeek 授予您使用 DeepSeek 产品和服务的非排他性、不可转让的许可。您同意遵守本协议的所有条款和条件。
14kB
自述文件
DeepSeek-Coder-V2 是一个开源的专家混合 (MoE) 代码语言模型,在代码特定任务中取得了与 GPT4-Turbo 相当的性能。DeepSeek-Coder-V2 从 DeepSeek-Coder-V2-Base 进一步预训练,使用来自高质量和多源语料库的 6 万亿个 token。