Phi-3-mini-4K-instruct with CPO-SimPO

3B

25次提取 更新于6周前

6周前

5431e2d157ae · 2.0GB

说明文档

Phi-3-mini-4K-instruct with CPO-SimPO

  • 使用 i-matrix calibration_datav3.txt 进行的量化
  • 转换为 fp32 的 Saftensors

本仓库包含经过 CPO-SimPO 技术增强的 Phi-3-mini-4K-instruct 模型。CPO-SimPO 结合了对比偏好优化 (CPO) 和简单偏好优化 (SimPO)。

简介

Phi-3-mini-4K-instruct 是一种针对基于指令的任务进行优化的模型。这种方法在关键基准测试中展现了显著的改进,推动了 AI 偏好学习的发展边界。

什么是 CPO-SimPO?

CPO-SimPO 是一种新技术,结合了 CPO 和 SimPO 的元素。

  • 对比偏好优化(CPO): 添加了一种行为克隆正则化器,以确保模型保持接近偏好数据分布。
  • 简单偏好优化(SimPO): 包括长度归一化和目标奖励边际,以防止生成长但质量低下的序列。

GitHub

CPO-SIMPO

模型性能

即将推出!

关键改进

  • 增强模型性能: 显著的分数提升,特别是GSM8K(上升8.49分!)和TruthfulQA(上升2.07分)。
  • 质量控制: 通过长度归一化和奖励边际,提高高质量序列的生成。
  • 平衡优化: BC正则化器有助于在保持学习偏好完整性的同时,不偏离偏好数据分布。