DBRX 是 Databricks 创建的开放通用 LLM。

132b

17.6K 9 个月前

自述

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用细粒度的混合专家 (MoE) 架构,总共有 132B 个参数,其中 36B 个参数在任何输入上都是活跃的。它在 12T 个 token 的文本和代码数据上进行了预训练。

它是一个特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专用模型,并且它也是一个通用的 LLM。

参考

博客文章

HuggingFace