- 基于变分贝叶斯框架的领域相关变量高级图像生成
通过定义一个统一的贝叶斯框架,我们提出了一种变分贝叶斯图像转换网络(VBITN),该网络可以实现多个图像转换和编辑任务;在诸多实验中我们显示了该方法在无监督图像到图像翻译中的有效性,并证明了其在语义编辑和混合领域翻译方面的新颖高级能力。
- 低分辨率指导下的领域无关图像翻译
本论文提出了一种面向细粒度问题的无域图像转换方法,其使用一种全新的方法生成图像,这种方法集中在从源图像提取视觉特征并与低频信息相结合,以生成符合期望的输出图像,该方法在处理面向细粒度问题的图像转换任务时能够生成更真实的图像样本。
- 无监督领域转移在科学上的应用:探索深度学习方法在不同响应模型的液体氩时投影室探测器模拟之间的翻译中的应用
本研究基于图像转换技术提出了一种自动的无监督方法,用于减少模拟数据与实验数据之间的系统性差异,其中将 TOY 模型应用于两组 LArTPC 探测器事件样本,验证了该方法的有效性,并对其生成的数据集 SLATS 进行开源共享,提供给研究人员开 - 无监督图像翻译的多作物对比学习
本文提出了一种新颖的基于对比学习的无配对图像翻译框架 MCCUT,通过多视图裁剪生成多样化的负样本,利用领域一致性误差函数将深度特征空间中的嵌入约束在一起,并采用 DCSE 模块来设计生成器以获得更好的结果。
- UTSGAN:用于考虑转换的图像转换的未见过转换 Sus GAN
该研究提出了一种基于转换感知的图像翻译方法,使用转换变量来显式参数化数据翻译映射,从而使其能够建模未观察到的转换触发的未看到的翻译,并提出了转换一致性以启用对未观察到的翻译的一致性的规范化。经过广泛的实验证明,UTSGAN 在实现一致性转换 - 图像风格转换的谱归一化双对比正则化
本文提出了一种基于双重对比规范化和谱归一化的新型无配对图像翻译框架(SN-DCR),以保持全局结构和纹理的一致性,提高生成图像的全局结构和纹理信息,并证明该方法在多个任务上实现了 SOTA。
- CVPR看 ATME:判别器平均熵需要关注
本文通过将难以训练但生成高质量图像的概率扩散模型(DMs)的去噪机制引入到生成对抗网络(GANs)中,提出了一种简单方法(ATME)实现 GANs 的稳定收敛,打破了 GANs 的信息不对称问题,并演示了该方法在多种图像转换任务上优于现有方 - 通过多尺度语义匹配将仿真图像转换为 X 射线图像
本论文中,我们提出了一种利用多尺度语义匹配的图像翻译方法,旨在将内镜模拟器中的图像翻译成 X 光图像。通过进行自领域和交叉域匹配,我们解决了图像翻译中存在的结构信息丢失等问题,实现了高度逼真的 X 光图像生成效果,并超过其他最先进的方法。
- 基于能量引导的熵正则神经最优输运
该研究桥接了 EBMs 和熵正则化 OT 之间的差距,并提出了新的方法,可在玩具 2D 场景和标准无配对图像到图像转换问题上应用。
- CVPR可调卷积与参数多损失优化
本文提出了一种使用参数可调卷积层进行对象和卷积核动态插值优化的方法,能够在不增加额外计算代价的前提下,有效地替代传统卷积,并在图像去噪、去模糊、超分辨率和风格转移等应用中表现优异。
- 文本引导扩散图像风格迁移的零样本对比损失
本文提出了一种零样式迁移的扩散模型,该零样式迁移使用零额外训练或辅助网络的对比损失来处理内容保留问题,并在图像样式转换和图像到图像翻译中取得了优于现有方法的效果。
- CVPR基于结构解耦和双重敌对鉴别的半监督手部外观恢复
该研究提出了一种基于半监督学习的框架,使用图像转换技术从含有标记的手部动作捕捉数据集(MoCap)中恢复真实纹理,实现了裸手结构和外观的分离,成功地生成了逼真的手部外观图像。
- CVPR难以言喻的多模态空间评估器
本文研究了多模态图像配准的挑战,介绍了一种基于自监督学习的 IMSE 方法,利用空间评估器和 Shuffle Remap 方法来解决这个问题,证明了它的优越性能,并提出了将它作为图像转换新范式的潜力。
- 基于文本的图像到图像翻译的即插即用扩散特征
研究使用空间特征和自我关注来实现生成图片结构的微调,并将其用于文本到图像合成中,从而实现图像到图像转换。
- 人类动作合成的计算编舞
利用深度学习建立神经网络来预测舞蹈动作并生成新的舞蹈动作序列。
- ECCV基于向量符号架构的非配对图像转换
使用矢量符号结构(VSA)作为理论框架,将 VSA 约束应用于对抗学习,通过学习矢量映射来反转翻译,以确保与源内容的一致性,从而提高了图像翻译的效果。
- CVPRLANIT:基于语言的无标记图像翻译
提出了一种以语言为驱动的图像翻译模型(LANIT),通过利用文本中的属性来获得 per-sample 的多热标签,并提出了 prompt learning 和域规则化损失以提高性能。
- 向量量化图像转换
本文提出一种使用矢量量化技术的图像转换框架,使得图像之间能够无条件地共享分布,结合解耦的样式表示,该方法不仅能实现图像翻译,而且具有在所有领域内和领域之间的高度灵活性,在图像转换、无条件生成和图像扩展的应用中具有广泛的实用性。
- ECCVSGBANet:用于任意方向场景文本识别的语义 GAN 和平衡注意力网络
本文提出一种新的场景文本识别方法,采用基于语义的生成对抗网络和平衡注意力网络相结合的方法,通过支持域和目标域之间的语义特征对齐,以及应用注意力平衡模块来解决注意力漂移问题,实现对文本图像的准确识别。
- NIPSEGSDE: 借助能量引导的随机微分方程进行无配对图像到图像的转换
提出了能量引导的随机微分方程方法,通过预训练的能量函数来指导预训练得到的 SDE 进行非配对图像翻译,实现了先进的结果,同时提高了逼真度。