DBRX 是由 Databricks 创建的开放的通用大语言模型。

132b

16.8K 7 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大语言模型 (LLM),使用下一个词预测进行训练。它使用了一个细粒度的混合专家 (MoE) 架构,总参数为 132B,其中 36B 参数在任何输入上都是激活的。它在 12T 的文本和代码数据 token 上进行了预训练。

它是一个特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专用模型,此外它还是一个强大的通用大语言模型。

参考

博文

HuggingFace