更新于 7 个月前
7 个月前
0cd6a20fa252 · 4.6GB
模型
archllama
·
parameters7.24B
·
quantizationQ4_1
4.6GB
参数
{"stop":["\u003c|endoftext|\u003e","\u003c|end_of_turn|\u003e","Human:","Assistant:"]}
87B
模板
{{ if .System }}GPT4 Correct System: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 Corre
200B
许可证
Apache License Version 2.0, January 2004
11kB
自述文件
Starling-7B 是一个开放的(非商业)大型语言模型 (LLM),通过从 AI 反馈中进行强化学习进行训练。(RLAIF)
该模型利用了我们新的 GPT-4 标注排序数据集 Nectar 和我们新的奖励训练和策略调整管道的优势。Starling-7B-alpha 在 MT Bench 中以 GPT-4 作为评判标准获得了 8.09 分,在 MT-Bench 中除了 OpenAI 的 GPT-4 和 GPT-4 Turbo 之外,优于迄今为止所有模型。
*基于 MT Bench 评估,使用 GPT-4 评分。需要进一步的人工评估。
作者:朱邦华、埃文·弗里克、吴天昊、朱涵林和焦建涛。
如需联系,请联系朱邦华 ([email protected])。