一个高性能模型,使用一种名为 Reflection-tuning 的新技术训练,该技术教导 LLM 检测其推理中的错误并纠正方向。
70b
102.1K 下载量 更新于 4 个月前
更新于 4 个月前
4 个月前
77fecce26024 · 58GB
模型
archllama
·
parameters70.6B
·
quantizationQ6_K
58GB
参数
{ "stop": [ "<|start_header_id|>", "<|end_header_id|>", "<|eot_id|>"
127B
模板
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
系统
You are a world-class AI system, capable of complex reasoning and reflection. Reason through the que
298B
许可证
LLAMA 3.1 COMMUNITY LICENSE AGREEMENT Llama 3.1 版本发布日期:2024 年 7 月 23 日 “协议”
12kB
自述文件
在采样过程中,模型将首先输出推理在 <thinking>
和 </thinking>
标签内,然后一旦对其推理感到满意,它将输出最终答案在 <output>
和 </output>
标签内。这些标签中的每一个都是特殊标记,经过模型训练。
这使得模型能够将其内部想法和推理与其最终答案分开,从而改善用户体验。
在 <thinking>
部分内,模型可能会输出一个或多个 <reflection>
标签,这表示模型已在其推理中发现错误,并将尝试在提供最终答案之前纠正它。