DBRX 是由 Databricks 创建的一个开放的通用 LLM。

132b

16.3K 6 个月前

自述文件

DBRX 需要 Ollama 0.1.32

DBRX 是一种基于 transformer 的仅解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用细粒度的专家混合 (MoE) 架构,拥有 132B 个总参数,其中 36B 个参数在任何输入上都是活跃的。它在 12T 个文本和代码数据 token 上进行预训练。

它是一个特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专业模型,此外它还是一个通用的 LLM。

参考文献

博客文章

HuggingFace