一个高性能模型,采用名为“反射微调”(Reflection-tuning)的新技术进行训练,该技术教会大型语言模型检测其推理中的错误并纠正方向。
70b
98.1K 拉取 更新于 2个月前
2个月前更新
2个月前
21f651100031 · 31GB
模型
架构llama
·
参数70.6B
·
量化Q3_K_S
31GB
参数
{ "stop": [ "<|start_header_id|>", "<|end_header_id|>", "<|eot_id|>"
127B
模板
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
系统
你是一个世界一流的AI系统,能够进行复杂的推理和反思。根据提
298B
许可证
LLAMA 3.1 社区许可协议 Llama 3.1 版本 发布日期:2024年7月23日 “协议”
12kB
自述文件
在采样过程中,模型将首先在<thinking>
和</thinking>
标签内输出推理过程,然后一旦对推理结果满意,它将在<output>
和</output>
标签内输出最终答案。这些标签都是特殊的标记,已训练到模型中。
这使得模型能够将内部想法和推理与最终答案分开,从而改善用户体验。
在<thinking>
部分内,模型可能会输出一个或多个<reflection>
标签,这表示模型已经发现其推理中的错误,并将尝试在提供最终答案之前纠正它。