更新于 8 个月前
8 个月前
39153f619be6 · 4.1GB
model
架构llama
·
参数7.24B
·
量化Q4_0
4.1GB
params
{ "stop": [ "<|endoftext|>", "<|end_of_turn|>", "Human:", "Assis
87B
template
{{ if .System }}GPT4 Correct System: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 Corre
200B
license
Apache License Version 2.0, January 2004
11kB
自述文件
Starling-7B 是一个开放的(非商业)大型语言模型 (LLM),通过人工智能反馈进行强化学习训练。(RLAIF)
该模型利用了我们新的 GPT-4 标记排名数据集 Nectar 以及我们新的奖励训练和策略调整流程的强大功能。在以 GPT-4 作为评判标准的 MT Bench 测试中,Starling-7B-alpha 获得了 8.09 分,在 MT-Bench 上除了 OpenAI 的 GPT-4 和 GPT-4 Turbo 之外,表现优于迄今为止的所有模型。
*基于 MT Bench 评估,使用 GPT-4 评分。需要进一步的人工评估。
作者:Banghua Zhu, Evan Frick, Tianhao Wu, Hanlin Zhu 和 Jiantao Jiao。
通信请联系 Banghua Zhu ([email protected])。