更新于 10 个月前
10 个月前
fe14e7d66184 · 26GB
模型
架构llama
·
参数46.7B
·
量化Q4_0
26GB
参数
{"stop":["[INST]","[/INST]"]}
30B
模板
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
许可证
MIT 许可证 版权所有 (c) [year] [fullname] 特此授予任何人免费获得本软件及其相关文档的副本的权利,不受限制地处理本软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售软件的副本,以及允许软件接收者这样做,但须符合以下条件: 上述版权声明和本许可声明应包含在软件的所有副本或重要部分中。 本软件按“现状”提供,不提供任何明示或暗示的担保,包括但不限于对适销性、特定目的的适用性和非侵权性的暗示担保。 在任何情况下,作者或版权持有人均不对任何索赔、损害或其他责任负责,无论是基于合同、侵权行为还是其他原因,因使用本软件或其他与软件相关的交易而产生,即使已告知该等损害的可能性。
1.1kB
自述文件
该模型是使用高质量、精选数据集对 Mixtral 进行微调的版本。截至 2023 年 12 月 26 日,该模型在 Hugging Face 开放 LLM 排行榜 上位列 MoE(专家混合)模型榜首。