更新于 13 个月前
13 个月前
09296d49ac57 · 29GB
模型
archllama
·
parameters46.7B
·
quantizationQ4_1
29GB
params
{ "stop": [ "[INST]", "[/INST]" ] }
30B
template
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
许可证
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
Readme
此模型是 Mixtral 的微调版本,使用高质量、精选的数据集。截至 2023 年 12 月 26 日,此模型在 Hugging Face Open LLM Leaderboard 上是排名最高的 MoE(专家混合)模型。