Mistral AI 发布的高质量混合专家(MoE)模型,具有开放权重。

13B

156 pulld 更新于4个月前

阅读说明

Mixtral-7Bx2 大型语言模型 (LLM) 是一个预训练的生成稀疏专家混合模型。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF