22K 拉取 更新于 10个月前
更新于10个月前
10个月前
dba2de3a5168 · 20GB
该模型是在高质量、精选的数据集上微调的 Mixtral 版本。截至2023年12月26日,该模型在 Hugging Face 开放 LLM 排行榜 上排名第一的 MoE(专家混合)模型。
HuggingFace
Argilla