更新于 10 个月前
10 个月前
2fcdc0b6a3a1 · 93GB
模型
架构llama
·
参数46.7B
·
量化F16
93GB
参数
{"stop":["[INST]","[/INST]"]}
30B
模板
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
许可证
MIT 许可证 版权所有 (c) [年] [姓名] 特此授予任何人免费获得本软件和相关文档文件(“软件”)的副本的许可,不受限制地处理软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或出售软件的权利,以及允许软件的接收者这样做,但须符合以下条件: 上述版权声明和本许可声明应包含在软件的所有副本或重要部分中。 软件按“原样”提供,不提供任何形式的明示或暗示担保,包括但不限于适销性、特定用途的适用性和非侵权担保。 在任何情况下,作者或版权持有人均不对任何索赔、损害或其他责任负责,无论是在合同、侵权行为或其他方面,由软件或其使用或其他交易所产生的或与之相关的。
1.1kB
自述文件
该模型是 Mixtral 的微调版本,使用高质量、精选的数据集。截至 2023 年 12 月 26 日,该模型在 Hugging Face 开放 LLM 排行榜 上排名第一的 MoE(混合专家)模型。