Phi-3-mini-4K-instruct with CPO-SimPO

3B

25 Pulls 更新于6周前

README

Phi-3-mini-4K-instruct with CPO-SimPO

  • 使用 i-matrix 的量化 calibration_datav3.txt
  • 转换为 fp32 的 Saftensors

此存储库包含增强 CPO-SimPO 技术的 Phi-3-mini-4K-instruct 模型。CPO-SimPO 结合了对比优先优化 (CPO) 和简单优先优化 (SimPO)。

简介

Phi-3-mini-4K指令模型是针对指令型任务进行了优化的模型。这种方法在关键基准测试中展示了显著的改进,推动了人工智能偏好学习的发展边界。

什么是CPO-SimPO?

CPO-SimPO是一种新的技术,它结合了CPO和SimPO的元素。

  • 对比偏好优化(CPO):添加一个行为克隆正则化器以确保模型接近于优选的数据分布。
  • 简单偏好优化(SimPO):引入长度归一化和目标奖励边界,以防止生成长但质量低下的序列。

GitHub

CPO-SIMPO

模型性能

即将推出!

主要改进

  • 模型性能提升:显著提高了分数,尤其是在GSM8K(提高8.49分!)和TruthfulQA(提高2.07分)方面。
  • 质量控制:通过长度归一化和奖励边界,改进了高质量序列的生成。
  • 平衡优化:BC正则化器有助于维护学习到的偏好的一致性,同时不偏离优选数据分布。