一个采用名为 Reflection-tuning 的新技术训练的高性能模型,该技术教会大型语言模型(LLM)检测其推理中的错误并进行纠正。
70b
98.1K 拉取次数 更新于 2 个月前
更新于 2 个月前
2 个月前
5084e77c1e10 · 40GB
model
架构llama
·
参数70.6B
·
量化Q4_0
40GB
params
{ "stop": [ "<|start_header_id|>", "<|end_header_id|>", "<|eot_id|>"
127B
template
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
system
你是一个世界级的人工智能系统,具有复杂的推理和反思能力。通过问题进行推理
298B
license
LLAMA 3.1 社区许可协议 Llama 3.1 版本发布日期:2024 年 7 月 23 日 “协议”
12kB
自述文件
在采样期间,模型将首先在 <thinking>
和 </thinking>
标签内输出推理,然后一旦它对其推理感到满意,它将在 <output>
和 </output>
标签内输出最终答案。每个标签都是训练到模型中的特殊标记。
这使模型能够将其内部思想和推理与其最终答案分开,从而改善用户体验。
在 <thinking>
部分内,模型可能会输出一个或多个 <reflection>
标签,这表示模型已发现其推理中存在错误,并将在提供最终答案之前尝试纠正它。