一个采用名为 Reflection-tuning 的新技术训练的高性能模型,该技术教会大型语言模型(LLM)检测其推理中的错误并进行纠正。

70b

98.1K 2 个月前

自述文件

在采样期间,模型将首先在 <thinking></thinking> 标签内输出推理,然后一旦它对其推理感到满意,它将在 <output></output> 标签内输出最终答案。每个标签都是训练到模型中的特殊标记。

这使模型能够将其内部思想和推理与其最终答案分开,从而改善用户体验。

<thinking> 部分内,模型可能会输出一个或多个 <reflection> 标签,这表示模型已发现其推理中存在错误,并将在提供最终答案之前尝试纠正它。

参考文献

Hugging Face