基于不确定性感知的鲁棒性循环一致性
本文提出了一种新的对抗一致性损失函数用于无配对图像转换,它可以更好地处理像素级别的约束和几何变换,在去除大型物体和忽略不相关纹理方面表现出色,获得了当前三个有挑战性的图像转换任务,即眼镜去除、男变女和自拍变动漫的最好表现。
Mar, 2020
该研究论文介绍了一种用于图像翻译的无监督学习方法,采用对抗性和循环一致性损失将源域图像翻译到目标域中,并且在多项任务上的实验结果表明该方法优于之前的方法。
Mar, 2017
本文提出了一种新的正则化方法 —— 增强循环一致性正则化(ACCR),该方法适用于无配对图像转换。通过使用真实、假的、重构的和增强的样本,我们试图在辨别器上施加来自半监督学习的一致性正则化。实验结果表明,该方法在诸多方面表现优异,尤其在真实世界的转换中表现得更为有效。
Feb, 2020
本文研究了无监督图像翻译中的自我攻击问题,提出了两种防御技术,发现增强模型抵抗自我对抗攻击的能力能提高生成质量和重构可靠性,降低模型受低幅扰动的敏感度。
Aug, 2019
针对许多不成对图像翻译应用需要在翻译过程中保持输入内容的语义,而现有的分布匹配方法容易导致翻译出现意义的混淆,本文提出了一种基于对抗学习的方法来实现对输入内容的意义保护,称为 “语义鲁棒性”,该方法使用多尺度特征空间扰动对鲁棒性损失进行优化,能够有效降低输出的语义翻转现象,并在定量和定性方面优于现有方法。
Dec, 2020
本文提出了一种不需要配对训练数据的单向域映射方法,使用 GAN 架构和基于补丁不变性的新型生成器损失来实现适当的图像转换,并通过皮片残差建立了一个输入相关的比例图来准确预测不确定性。通过在三个医学数据集上全面评估,相较于四种最先进方法,我们观察到更高的准确性,表明该方法用于无教师图像转换具有很大的潜力。
Jul, 2022
该研究论文探讨图片到图片翻译的问题,以及如何在计算机视觉应用中如上色、修补和分割等方面应用无监督学习和生成对抗网络,并提出两种模型以解决 GAN 稳定性问题,并得出与文献讨论一致的问题假设。
Oct, 2023
通过将单一翻译分解为多阶段变换并开发一种自适应融合块,我们提出了新颖的堆叠循环一致性对抗网络(SCANs),以在粗糙到精细的方式下提高图像翻译质量并实现更高分辨率的图像翻译。
Jul, 2018
本文提出了一个新的基于运动引导的循环一致性生成对抗网络,称为 Mocycle-GAN,该网络将运动估计集成到无配对视频翻译器中,可用于视频合成。通过对视频到标签和标签到视频的翻译进行广泛的实验,与最先进的方法相比,我们报告了卓越的结果。更明显地,我们定性地演示了我们的 Mocycle-GAN 在花朵和环境条件转移中的应用。
Aug, 2019
通过学习多对多的映射关系,我们提出一种新的模型 Augmented CycleGAN,使得在缺乏配对数据的情况下能够从非配对数据中提取结构信息,从而提高图像分割等结构化预测任务的性能,这在 CycleGAN 的假设单向单映射关系无法满足的情况下格外重要,并且通过实验证明了模型在多个图像数据集上的有效性。
Feb, 2018