一个高性能模型,使用一种称为 Reflection-tuning 的新技术进行训练,该技术教会 LLM 检测其推理中的错误并纠正路线。
70b
95.9K 拉取 更新于 2 个月前
更新于 2 个月前
2 个月前
84a4d89b332c · 49GB
模型
架构llama
·
参数70.6B
·
量化Q5_K_S
49GB
参数
{"stop":["\u003c|start_header_id|\u003e","\u003c|end_header_id|\u003e","\u003c|eot_id|\u003e"],"temp
127B
模板
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
系统
你是一个世界级的 AI 系统,能够进行复杂的推理和反思。通过问题
298B
许可证
LLAMA 3.1 社区许可协议 Llama 3.1 版本发布日期:2024 年 7 月 23 日 “协议”
12kB
自述文件
在采样过程中,模型将首先输出 `<thinking>` 和 `</thinking>` 标签内的推理,然后在对推理感到满意后,将最终答案输出到 `<output>` 和 `</output>` 标签内。这些标签都是特殊的标记,训练到模型中。
这使得模型能够将它的内部想法和推理与最终答案分开,改善了用户的体验。
在 `<thinking>` 部分内,模型可能会输出一个或多个 `<reflection>` 标签,这表明模型已经发现了其推理中的错误,并将尝试在提供最终答案之前对其进行修正。