Mistral AI提供的开源权重的高质量专家混合(MoE)模型。

13B

156 拉取 更新于4个月前

4 个月前

d4fc0fbae959 · 7.3GB

说明

Mixtral-7Bx2 大型语言模型(LLM)是一个预训练的生成稀疏专家混合模型。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF