PopAlign: 公平文本到图像生成的人口层次对齐
Diffusion-RPO 是一种新的方法,旨在更有效地将基于扩散的 T2I 模型与人类偏好对齐。我们引入了一种新的评估指标,即风格对齐,旨在克服当前人类偏好对齐评估中普遍存在的高成本、低可重复性和有限可解释性的挑战。研究结果表明,Diffusion-RPO 在调整 Stable Diffusion 版本 1.5 和 XL-1.0 时,优于监督微调和 Diffusion-DPO 等已有方法,在自动评估人类偏好和风格对齐方面取得了卓越的结果。
Jun, 2024
通过使用直接偏好优化(DPO)的人体图像生成方法以及改进的损失函数,本文在人体图像生成领域取得了显著进展,达到了自然解剖结构、姿势和文本 - 图像对齐方面的优越结果。
May, 2024
通过引入时间折扣机制以适应 T2I 生成层次结构,本文提出了一种可行的对齐目标,强调 T2I 反向链中的初始步骤,实验证明该方法在单个和多个提示生成方面与相关基线方法具有竞争力。
Feb, 2024
利用人类比较数据和强化学习通过 Reinforcement Learning from Human Feedback (RLHF) 方法对大规模语言模型(LLMs)进行微调,以使其更好地与用户偏好相匹配。与 LLMs 相比,文本到图像扩散模型中人类偏好学习的探索较少;目前最佳方法是使用经过精心筛选的高质量图像和标题对预训练模型进行微调,以提高视觉吸引力和文本对齐性。我们提出 Diffusion-DPO 方法,通过在人类比较数据上进行直接优化,使扩散模型与人类偏好相匹配。Diffusion-DPO 从最近开发的直接偏好优化(DPO)中进行适应,DPO 是对最佳满足分类目标下人类偏好的策略直接进行优化的更简单的方法。我们重新制定 DPO 以考虑扩散模型的似然概念,利用证据下界导出可微分的目标函数。利用 Pick-a-Pic 数据集中的 851K 个众包成对偏好,我们使用 Diffusion-DPO 对最先进的稳定扩散 XL(SDXL)-1.0 模型的基础模型进行微调。我们微调后的基础模型在人工评估中显著优于基础 SDXL-1.0 模型和额外的改进模型,从而提高了视觉吸引力和提示对齐。我们还开发了一个使用 AI 反馈并具有与基于人类偏好训练相当性能的变体,为扩展扩散模型对齐方法打开了大门。
Nov, 2023
快速采用的文本到图像扩散模型强调了解决其偏见的迫切需求。本研究将公平性视为分布对齐问题,提出了两个主要技术贡献:(1)分布对齐损失,将生成的图像的特定特征引导向用户定义的目标分布;(2)扩散模型抽样过程的有偏直接微调,利用有偏梯度更有效地优化生成图像上定义的损失。实证结果显示,我们的方法显著降低了职业提示中的性别、种族及其交叉偏见。即使只微调五个软记号,性别偏见也显著降低。关键是,我们的方法支持超越绝对平等的多样观点公平,如同时控制年龄分布为 75%年轻和 25%年长的情况下消除性别和种族偏见。最后,我们的方法具有可扩展性:通过将这些提示包含在微调数据中,可以同时消除多个概念的偏见。我们希望我们的工作有助于文本到图像生成人工智能的社会调整。我们将共享代码和各种消除偏见的扩散模型适配器。
Nov, 2023
通过使用 Pareto Optimal Preference Learning (POPL) 模型,借助于 Lexicase 筛选过程,本研究实证评估表明 POPL 在学习奖励函数方面超过基线方法,有效满足不同的群体需求,并确保包容和公平的人工智能模型对齐。
Jun, 2024
基于信息论对齐度量的自监督微调方法对模型对齐问题进行了研究,在文字到图像生成任务中获得了与最新技术相媲美或超过的结果,并且只需要一个预训练的去噪网络来估计互信息和一个轻量级微调策略。
May, 2024
通过引入 Trust Region DPO 方法,我们提出了一种新的对齐方法来改善模型的质量,通过在训练过程中更新参考策略,我们展示了 TR-DPO 相对于 DPO 在多个参数上的优越性能。
Apr, 2024
通过直接偏好优化(DPO)在完全人工智能驱动的方法中利用视觉 - 语言模型(VLM)评估图像质量,AGFSync 将 T2I 扩散模型改进,应用于 T2I 的核心模型并在 TIFA 数据集上显示出显著改善。
Mar, 2024