DBRX 是 Databricks 创建的开放通用 LLM。

132b

1.76万 9 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用细粒度的混合专家 (MoE) 架构,总共有 1320 亿个参数,其中 360 亿个参数在任何输入上都是激活的。它在 12 万亿个 token 的文本和代码数据上进行了预训练。

它是一个特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专用模型,并且作为通用 LLM 也非常强大。

参考

博客文章

HuggingFace