一个使用名为Reflection-tuning的新技术训练的高性能模型,该技术教会LLM检测其推理中的错误并纠正路线。

70b

95.9K 2个月前

自述文件

在采样过程中,模型将首先在<thinking></thinking>标签内输出推理,然后一旦对推理感到满意,它将在<output></output>标签内输出最终答案。这些标签中的每一个都是特殊的标记,经过训练被整合到模型中。

这使得模型能够将其内部想法和推理与最终答案分开,从而改善了用户的体验。

<thinking>部分内,模型可能会输出一个或多个<reflection>标签,这表示模型在其推理中发现了一个错误,并将尝试在提供最终答案之前进行纠正。

参考资料

Hugging Face