通过提出一种语义信息导向的生成对抗网络 SeCGAN,可无需指定目标语义掩码的情况下,利用语义信息进行人脸图像编辑,从而在保持质量指标的前提下,在 CelebA 和 CelebA-HQ 上生成具有更准确属性的面部图像,优于竞争基线项。
Nov, 2021
通过使用自适应规范化层来调整激活函数,我们提出了一种简单但有效的方法来合成具有输入语义布局的逼真图像,这种方法可以提高视觉保真度和与输入布局的对齐度,并允许用户控制语义和风格。
Mar, 2019
提出了一种新的两阶段框架来处理姿势和外观的转化,通过区域自适应规范化,利用区域风格指导目标外观生成,生成更语义化、一致性和逼真的结果。
Apr, 2021
本文提出了一种全卷积自适应网络(FCAN)用于语义分割,该网络综合了外观适应网络(AAN)和表示适应网络(RAN),通过对领域适应的视觉外观级别和表示级别进行改进,实现了从合成图像到真实世界图像的领域适应。论文进行了广泛的实验,在 GTA5 到 Cityscapes 和 BDDS 领域不需要监督地自适应,实现了优于现有技术的结果,并在 BDDS 上获得了新的记录 —— 无监督的 mIoU 为 47.5%。
Apr, 2018
我们设计了一种使用交叉注意力层代替反归一化层进行图像生成条件的新型架构,旨在实现全局和局部风格转换,并保留先进的重建质量。
Aug, 2023
本文提出了一种新的基于 SG-GAN 的虚拟到现实领域自适应方法,可以有效地保留关键语义信息以实现更好的识别。实验证明,与现有 GAN 相比,SG-GAN 在场景自适应方面具有更好的性能,使用 SG-GAN 适应的虚拟图像在语义分割上比原始虚拟数据明显提高。
Jan, 2018
提出一种新的方法 EditGAN,通过修改高分辨率部分分割掩码来实现高质量、高精度的语义图像编辑,同时利用生成对抗网络和条件潜空间优化来实现编辑。
本研究提出了注意力归一化模块 (AN) 用于改进图像的长程关联性以及利用语义对分割特征图进行处理,相比于自注意力 GAN,AN 不需要测量所有位置之间的关联性,因此可以直接应用于大尺寸的特征图,本文通过对比实验证明了 AN 的有效性。
Apr, 2020
本文提出了一种新的动态语义演化生成对抗网络(DSE-GAN),采用单个生成器 - 鉴别器对的单个对抗训练架构,在每个阶段根据历史阶段的状态(即历史阶段的文本和图像特征)对文本特征进行自适应重新组合,以在粗到细的生成过程中提供多样化和准确的语义引导。在广泛使用的 CUB-200 和 MSCOCO 数据集上,实验结果表明该模型相对 FID 分别提高 7.48%和 37.8%。
Sep, 2022
本文介绍了一种基于自注意力机制的生成对抗网络(SAGAN),它能够在图像生成任务中实现关注驱动的远距离依赖关系建模,并通过对 GAN 生成器实施谱归一化技术,取得了对图像生成任务来说最好的表现。
May, 2018