7个月前更新
7个月前
2bacc27fc29a · 263GB
模型
架构dbrx
·
参数132B
·
量化F16
263GB
参数
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
系统
你是 DBRX,由 Databricks 创建。你最后一次更新是在 2023 年 12 月。你回答问题 ba
1.0kB
许可证
Databricks 开放模型许可证 通过使用、复制、修改、分发、执行或显示
8.3kB
自述文件
DBRX 需要 Ollama 0.1.32
DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),其训练使用的是下一个令牌预测方法。它采用细粒度的混合专家 (MoE) 架构,拥有总计 132B 个参数,其中任何输入上都有 36B 个参数处于活动状态。它在 12T 个文本和代码数据令牌上进行了预训练。
它是一个特别强大的代码模型,在编程方面超越了 CodeLLaMA-70B 等专用模型,此外它也作为通用 LLM 具有很强的实力。