Mistral AI 开放权重的高质量专家混合 (MoE) 模型。

13B

156 拉取 更新于 4 个月前

4 个月前

f2b2f7550941 · 9.1GB

README

Mixtral-7Bx2 大型语言模型 (LLM) 是一个预训练的稀疏混合专家。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF