DBRX 是 Databricks 创建的开放通用 LLM。

132b

1.76万 9 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用细粒度的混合专家 (MoE) 架构,总共有 132B 参数,其中 36B 参数在任何输入上都是激活的。它在 12T 个 token 的文本和代码数据上进行了预训练。

除了作为通用 LLM 的优势外,它还是一个功能特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专业模型。

参考

博客文章

HuggingFace