通用单次域自适应生成对抗网络
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
本文提出了一种新的对抗风格挖掘方法,将样式转移模块和任务特定模块相结合,通过对抗学习的方式解决一次样本不足的情况下的领域自适应问题,进而提高了领域自适应性能。
Apr, 2020
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
该研究提出 Few-Shot GAN (FSGAN),通过组件分析和学习预训练模型的奇异值,而固定奇异向量,以在少于100张图像的情况下进行 GAN 适应。在5-100张图像的挑战性少样本设置中,与现有的 GAN 适应方法相比,FSGAN 实现了显著的视觉质量提高。
Oct, 2020
介绍了一种用于一次性域自适应的新方法,使用训练有素的 GAN 可以在域 A 和域 B 中生成图像,通过提出的算法可以将训练有素的 GAN 的任何输出从域 A 转换到域 B,相对于目前的技术水平,该解决方案有两个主要优点:首先,我们的解决方案实现了更高的视觉质量,例如显着减少了过度拟合;其次,我们的解决方案允许更多的自由度来控制域差距,即使用图像 I_B 的哪些方面来定义域 B。
Oct, 2021
研究如何转移使用GAN训练的一个图像领域到一个新的领域,只需一个目标图像;通过使用属性适配器和属性分类器的轻量级模块,对生成器和鉴别器进行改进,从而提高合成质量和多样性,并在训练过程中约束生成领域的多样性,不仅在各种设置下带来了具有吸引力的结果,而且能够在几分钟内提供稳健的收敛。
Nov, 2021
我们提出了一种新的平滑相似正则化方法,将预训练的 GAN 的平滑性从结构上不同的领域转移到少样本目标域,解决了现有方法在结构不同的源域和目标域之间容易出现训练不稳定性和记忆问题的限制,实验证明我们的方法在结构上不同的源目标域的情况下,显著优于现有的少样本 GAN 适应方法,而在结构相似的源目标域方面与现有技术达到相同水平。
Aug, 2023
我们提出了一种配对图像重建方法,用于内容保留,通过引入图像转换模块到生成对抗网络转换过程中,在少样本设置中,定性和定量实验证明我们的方法始终优于现有方法。
Nov, 2023
本文解决了3D生成模型在域适应中的高数据需求问题,提出了一种新颖的单次3D生成域适应方法(One-shot 3D GDA),通过单张参考图像便可将预训练的3D生成器迁移至新域。该方法通过选择特定的权重集进行微调并结合四种先进的损失函数,显著提升了生成图像的多样性和一致性,具备扩展到零-shot场景的能力,为3D内容生成提供了重要的技术支持。
Oct, 2024