8个月前更新
8个月前
f336e3b146fd · 4.4GB
模型
架构llama
·
参数7.24B
·
量化Q4_K_M
4.4GB
参数
{ "stop": [ "<|endoftext|>", "<|end_of_turn|>", "Human:", "Assis
87B
模板
{{ if .System }}GPT4 Correct System: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 Corre
200B
许可证
Apache License Version 2.0, January 2004
11kB
自述文件
Starling-7B是一个开放的(非商业)大型语言模型(LLM),通过基于人工智能反馈的强化学习 (RLAIF) 进行训练。
该模型利用了我们新的GPT-4标记排序数据集Nectar以及我们新的奖励训练和策略调整管线。在使用GPT-4作为评判标准的MT Bench测试中,Starling-7B-alpha得分为8.09,其性能优于MT-Bench上迄今为止的所有模型,仅次于OpenAI的GPT-4和GPT-4 Turbo。
*基于MT Bench评估,使用GPT-4评分。需要进一步的人工评估。
作者:朱邦华、Evan Frick、吴天昊、朱寒林和焦建涛。
如需联系,请联系朱邦华 ([email protected])。