156 Pulls 更新于 4 个月前
11 个标签
更新于 4 个月前
4 个月前
722127437881 · 6.7GB
Mixtral-7Bx2 大型语言模型 (LLM) 是一个预训练的稀疏混合专家。
@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF