Mistral AI 提供的开源权重高质量专家混合 (MoE) 模型。

13B

156 pulls 更新于 4 个月前

README

Mixtral-7Bx2 大型语言模型(LLM)是一个预训练的生成稀疏混合专家模型。

https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF