一个使用名为 Reflection-tuning 的新技术训练的高性能模型,该技术可以教会 LLM 检测其推理中的错误并纠正方向。

70b

95.9K 2 个月前

自述文件

在采样期间,模型将首先输出位于<thinking></thinking> 标签内的推理,然后一旦对推理感到满意,它将输出位于 <output></output> 标签内的最终答案。这些标签中的每一个都是特殊标记,经过训练融入模型。

这使得模型能够将自身的内部想法和推理与最终答案分开,从而改善用户的体验。

<thinking> 部分中,模型可能会输出一个或多个<reflection> 标签,这表示模型已经发现了其推理中的错误,并将尝试纠正它,然后再提供最终答案。

参考

Hugging Face