内容简介:摘要: 为特定任务调整大型语言模型 (LLM) 通常涉及通过使用人类反馈 (RLHF) 的强化学习对偏好数据进行微调。 虽然这些数据通常来自不同的标注者群体(例如,不同的文化背景、种族、公司团队等),但传统的 RLHF 方法采用“一刀切”的方法,即,它们不加区分地假设并优化一个单一的偏好模型,因此无法适应各种群体的独特特征和需求。 为了解决这一局限性,我们提出了一种新颖的集体鲁棒偏好优化...
用户评论
推荐服务