DBRX 是 Databricks 创建的开放式通用 LLM。

132b

16.3K 6 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一种基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个令牌预测进行训练。 它使用细粒度的混合专家 (MoE) 架构,总参数量为 132B,其中任何输入上都有 36B 参数处于活动状态。 它在 12T 个文本和代码数据令牌上进行了预训练。

它是一个特别强大的代码模型,在编程方面超过了 CodeLLaMA-70B 等专门模型,此外它还是一个强大的通用 LLM。

参考文献

博客文章

HuggingFace