一个使用名为 Reflection-tuning 的新技术训练的高性能模型,该技术教会 LLM 检测其推理中的错误并纠正方向。

70b

95.9K 2 个月前

自述文件

在采样期间,模型将首先在 <thinking></thinking> 标签内输出推理,然后一旦对推理感到满意,就会在 <output></output> 标签内输出最终答案。这些标签都是特殊的标记,被训练到模型中。

这使模型能够将内部想法和推理与最终答案分离,从而改善用户体验。

<thinking> 部分中,模型可能会输出一个或多个 <reflection> 标签,这表示模型在推理中发现错误,并将尝试在提供最终答案之前纠正错误。

参考资料

Hugging Face