DBRX 是由 Databricks 创建的开源、通用大语言模型。

1320亿

16.8K 7 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大语言模型 (LLM),它使用下一个令牌预测进行训练。它采用细粒度专家混合 (MoE) 架构,总参数为 1320 亿,其中 360 亿参数在任何输入上都处于活动状态。它在 12T 文本和代码数据令牌上进行了预训练。

它是一个特别强大的代码模型,除了作为通用大语言模型的优势外,在编程方面超越了像 CodeLLaMA-70B 这样的专用模型。

参考

博客文章

HuggingFace