一个使用名为 Reflection-tuning 的新技术训练的高性能模型,该技术教导 LLM 检测其推理中的错误并纠正方向。
70b
95.9K 拉取 更新 2 个月前
2 个月前更新
2 个月前
77fecce26024 · 58GB
模型
架构llama
·
参数70.6B
·
量化Q6_K
58GB
参数
{"stop":["\u003c|start_header_id|\u003e","\u003c|end_header_id|\u003e","\u003c|eot_id|\u003e"],"temp
127B
模板
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
系统
你是一个世界级的 AI 系统,能够进行复杂的推理和反思。通过以下提示进行推理:
298B
许可
LLAMA 3.1 社区许可协议 Llama 3.1 版本发布日期:2024 年 7 月 23 日 “协议”
12kB
自述文件
在采样期间,模型将首先在 <thinking>
和 </thinking>
标签内输出推理,然后一旦对推理满意,它将在 <output>
和 </output>
标签内输出最终答案。这些标签都是特殊的标记,经过训练可以融入模型。
这使模型能够将内部思想和推理与最终答案分开,从而改善用户体验。
在 <thinking>
部分内,模型可能会输出一个或多个 <reflection>
标签,这表示模型已在其推理中发现错误,并将尝试在提供最终答案之前进行更正。