Mistral AI提供的高质量混合专家(MoE)模型,具有公开权重。

13B

156 拉取 更新于 4 个月前

4个月前

5976bcc19094 · 11GB

README

Mixtral-7Bx2 大型语言模型(LLM)是一个预训练的生成稀疏混合专家模型。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF