更新于 13 个月前
13 个月前
add59b7f7dab · 14GB
模型
archllama
·
parameters7.24B
·
quantizationF16
14GB
参数
{ "stop": [ "<|system|>", "<|user|>", "<|assistant|>", "</s>"
98B
模板
{{- if .System }} <|system|> {{ .System }} </s> {{- end }} <|user|> {{ .Prompt }} </s> <|assistant|>
101B
许可证
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
自述文件
Zephyr 是一系列被训练为有用的助手的大型语言模型。Zephyr 141B-A35B 是该系列的最新模型,并且是 Mixtral 8x22b 的微调版本。
大小
zephyr:141b
: 一个混合专家 (MoE) 模型,总参数为 1410 亿,活跃参数为 350 亿。zephyr:7b
: 原始的 Zephyr 模型