7 个月前更新
7 个月前
1326603dad7b · 3.8GB
模型
架构llama
·
参数7.24B
·
量化Q3_K_L
3.8GB
参数
{"stop":["\u003c|endoftext|\u003e","\u003c|end_of_turn|\u003e","Human:","Assistant:"]}
87B
模板
{{ if .System }}GPT4 正确的系统: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 正确
200B
许可证
Apache 许可证版本 2.0,2004 年 1 月
11kB
自述文件
Starling-7B 是一个开放的(非商业)大型语言模型 (LLM),通过强化学习从 AI 反馈中训练。(RLAIF)
该模型利用了我们新的 GPT-4 标签排序数据集 Nectar 和我们新的奖励训练和策略调整管道的强大功能。Starling-7B-alpha 在 MT Bench 中得分 8.09,GPT-4 作为评判,在 MT-Bench 上的表现优于迄今为止除 OpenAI 的 GPT-4 和 GPT-4 Turbo 之外的所有模型。
*基于 MT Bench 评估,使用 GPT-4 评分。需要进一步的人工评估。
作者:Banghua Zhu、Evan Frick、Tianhao Wu、Hanlin Zhu 和 Jiantao Jiao。
如有任何问题,请联系 Banghua Zhu ([email protected])。