TSIT: 一种简单且通用的图像到图像翻译框架
S2ST 是一个新颖的框架,用于在复杂的照片逼真图像中实现全局图像转换,如汽车场景的日夜或晴雨转换,通过利用由潜在扩散模型学习到的强大图像先验,S2ST 在改善保真度的同时保持了目标领域的外观,并超越了基于 GAN 的图像转换方法和基于扩散的方法,并值得注意的是,S2ST 免除了训练领域特定的转换网络的必要性。
Nov, 2023
本研究提出了一种名为 SDIT 的可扩展和多样化图像翻译方法,通过将多样性和可扩展性合并到一个生成器中,利用从正态分布中随机抽样的潜在变量来确定多样性,通过在网络中设置领域属性来获得可扩展性,并利用注意机制使生成器能够专注于领域特定的属性。该方法已在脸部映射和其他数据集上得到了验证和实际应用。
Aug, 2019
本文提出了一种新的框架,StyleT2I,旨在改善文本到图像合成的组合性,并且使用 CLIP 引导的对比损失、语义匹配损失和空间约束等方法来识别属性的潜在方向,从而更好地解开属性的潜在表示,最终获得更好的合成图像的组合性。
Mar, 2022
本文提出了一种联合框架,通过条件生成无数独特的图像,实现多样性和多映射图像到图像的翻译,使用称为领域嵌入的嵌入表示来表示领域和风格,并在连续的样式插值,连续标签插值和细粒度映射等不同场景下展示其有效性。
Dec, 2018
通过模拟人类绘画过程,提出了两阶段统计感知转换(TSSAT)模块来改善艺术风格迁移的效果,并引入了基于注意力的内容损失和基于补丁的风格损失来增强内容和风格的表示。大量的定性和定量实验证实了我们方法的有效性。
Sep, 2023
该论文介绍了一种基于生成式对抗网络的图像生成方法,引入了一种简单有效的语义 - 空间感知块,学习语义自适应变换,并在弱监督方式下学习语义掩膜,从而在保持视觉保真度的同时,能够对输入文本精准对齐。
Apr, 2021
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文介绍了一种在多元和内容丰富的图像上使用单个物体翻译方法的扩展方法,使用基于目标检测的方式对数据集进行扩充,同时提出了一种适应 FUNIT 框架的方法,以利用其他方法中可以看到的目标检测技术的优势。
Jun, 2021
通过对抗学习目标,将单步扩散模型通过整合各种模块成为单一的端到端生成网络,以提高其保留输入图像结构并减少过拟合的能力,我们的模型在非配对设置下优于现有的基于 GAN 和扩散的方法,实现了各种场景转换任务,如昼夜转换和添加 / 删除雾、雪和雨等天气效果;在配对设置中,我们的模型与现有的作品如 Sketch2Photo 和 Edge2Image 的 Control-Net 不相上下,但具有单步推理。
Mar, 2024