Updated 13 months ago
13 months ago
ec6abe6a6aa2 · 32GB
model
archllama
·
parameters46.7B
·
quantizationQ5_K_M
32GB
params
{ "stop": [ "[INST]", "[/INST]" ] }
30B
template
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
license
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
自述文件
此模型是 Mixtral 的微调版本,使用了高质量、精选的数据集。截至 2023 年 12 月 26 日,此模型在 Hugging Face Open LLM Leaderboard 上是排名最高的 MoE (混合专家) 模型。