10 个月前更新
10 个月前
69373e3f99d5 · 5.9GB
模型
架构llama
·
参数7.24B
·
量化Q6_K
5.9GB
参数
{"stop":["\u003c|system|\u003e","\u003c|user|\u003e","\u003c|assistant|\u003e","\u003c/s\u003e"]}
98B
模板
{{- if .System }} <|system|> {{ .System }} </s> {{- end }} <|user|> {{ .Prompt }} </s> <|assistant|>
101B
许可证
MIT 许可证 版权所有 (c) [年份] [全名] 特此免费授予任何人以任何目的获取和使用本软件副本的权利,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或出售软件的权利,以及允许软件接受者这样做,但须受以下条件约束: 上述版权声明和本许可声明应包含在软件的所有副本或重要部分中。 本软件按“现状”提供,不提供任何明示或暗示的担保,包括但不限于适销性、特定目的适用性以及不侵权的担保。 在任何情况下,作者或版权持有者均不对因本软件或使用或其他原因导致的任何索赔、损害或其他责任承担任何责任,包括但不限于因使用、数据或利润损失而造成的直接、间接、偶然、特殊、示例性或后果性损害。
1.1kB
自述文件
Zephyr 是一系列经过训练可以充当有用的助手的语言模型。Zephyr 141B-A35B 是该系列的最新模型,是 Mixtral 8x22b 的微调版本。
尺寸
zephyr:141b
: 一个具有 141B 个总参数和 35B 个活动参数的专家混合 (MoE) 模型。zephyr:7b
: 最初的 Zephyr 模型