DBRX 是 Databricks 创建的开放通用 LLM。

132b

1.76万 9个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用细粒度的混合专家 (MoE) 架构,总共有 1320 亿个参数,其中任何输入上都有 360 亿个参数处于活动状态。它在 12 万亿个 token 的文本和代码数据上进行了预训练。

它是一个功能特别强大的代码模型,除了作为通用 LLM 的优势外,还在编程方面超越了像 CodeLLaMA-70B 这样的专业模型。

参考

博客文章

HuggingFace