更新于 13 months ago
13 months ago
20bdbdb43962 · 20GB
模型
archllama
·
parameters46.7B
·
quantizationQ3_K_M
20GB
参数
{ "stop": [ "[INST]", "[/INST]" ] }
30B
模板
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
许可证
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
简介
此模型是 Mixtral 的微调版本,使用了高质量、精选的数据集。截至 2023 年 12 月 26 日,此模型在 Hugging Face Open LLM Leaderboard 上是排名最高的 MoE(专家混合)模型。