156 次 Pull 更新 4 个月前
11 个标签
更新于 4 个月前
4 个月前
353f1266e0bf · 4.8GB
Mixtral-7Bx2 大语言模型(LLM)是一个预训练的稀疏专家混合生成模型。
@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF