Safouane El Ghazouali, Arnaud Gucciardi, Umberto Michelucci
TL;DR通过使用自奖励机制改进自动生成的图像,可以有效提高文本到图像生成模型的性能和图像质量。
Abstract
self-rewarding have emerged recently as a powerful tool in the field of
Natural Language Processing (nlp), allowing language models to generate
high-quality relevant responses by providing their own rewards durin
本文介绍了一种 Fine-Tuning 方法,使用人类反馈对齐文本到图像的 Deep generative model,通过分析设计选择平衡对齐 - 准确性的权衡,最终通过奖励加权似然优化,使得生成的对象更准确地反映了指定颜色、数量和背景等特征。结果表明,利用人类反馈可以显著改善文本到图像的 Deep generative model 的性能。