高效偏好优化算法(如直接偏好优化DPO)已成为对齐大语言模型(LLM)与人类偏好的主流方法。这些算法隐式将LLM视为奖励模型,重点修正错误排序的偏好对。然而,近期研究发现DPO训练极少改善这些错误排序对,尽管其梯度强调此类情况。
FocalPO作为DPO的改进版本,降低错误排序对的权重,优先增强模型对已能正确排序对的理解。受视觉任务中Focal Loss启发,FocalPO通过引入调制因子动态缩放DPO损失实现该目标。实验表明,FocalPO在Mistral-Base-7B和Llama-3-Instruct-8B模型上,以固定超参数在Alpaca Eval 2.0等基准测试中超越DPO及其变体。此外,研究实证分析了FocalPO对正确与错误样本组的训练影响,进一步验证其有效性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。