Mistral AI 提供的高质量混合专家(MoE)模型,带有开源权重。

13B

156 次 Pull 更新 4 个月前

README

Mixtral-7Bx2 大语言模型(LLM)是一个预训练的稀疏专家混合生成模型。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF