- 终止令牌的奇怪案件:使用 CLIP 进行零射击解缠图像编辑
使用 CLIP 能够以零样本的方式实现解耦编辑操作,在进行定性和定量对比后,展示了该方法的竞争性结果,为图像和视频编辑提供了一种轻量高效的解耦编辑方法。
- 数据增强和迁移学习应用于面部表情识别
通过使用数据增强技术和生成对抗网络模型,将初步训练的卷积神经网络与不同架构的预训练模型的方法应用于面部表情识别任务,使得模型的泛化能力得到提高,从而实现对面部表情的自动识别,准确率达到 85%。
- 具备预训练生成模型的条件图像生成
通过经验分析,我们提出了一套方法,以降低在扩散模型中引入指导所带来的时间需求和计算开销,并且保持相当的图像质量,从而将计算时间减少大约三倍。
- 高质量面部漫画通过风格转换
本研究提出了一种适用于现实世界的高质量非配对人脸漫画方法,其中利用计算机视觉技术和生成对抗网络模型实现面部特征的夸张和外貌的风格化,通过面部漫画生成和面部漫画投影的两步过程实现。
- ICCVGAN 反演的多样修复和编辑
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleG - Diff-Instruct: 从预训练扩散模型中传递知识的通用方法
本文介绍了利用预训练扩散模型在数据自由的情况下对其他生成模型进行学习转移的 Diff-Instruct 框架,其中包括深入探讨的新的 KL 发散 - Integral Kullback-Leibler(IKL)分散演化过程以及与已有方法如 - WeditGAN: 通过潜空间重新定位进行少样本图像生成
本文介绍了一种基于 WeditGAN 的 few-shot image generation 方法,利用常数偏移量编辑 StyleGANs 中的中间潜在层代码 w,通过重新定位源潜在空间的分布,构建目标潜在空间,成功地实现了模型转移,并在多 - PREIM3D: 从单张图像实现一致精确的 3D 图像属性编辑
本文研究了 3D 感知图像属性编辑问题,提出了一种多视图身份损失和交替训练方案的方法来维持 3D 一致性和主体身份,使用 GAN 模型的反演流形进行编辑,比以前的工作更准确地编辑图像并生成了更具 3D 一致性的图像。
- 自监督抠像人像增强与生成
本文提出了利用 GAN 模型的潜在空间中的语义图片转换,在不改变人像图片本质特征的前提下,通过针对性的损失函数对 StyleGAN 的多个潜在向量进行优化,以提高任意 matting 算法从未知人像背景中去除背景物体的性能,并利用 Styl - ICLR语义图像合成只需要对抗监督
通过重新设计辨别器作为语义分割网络,直接使用给定的语义标签映射作为训练的地面实况,通过提供更强的监督和对空间和语义感知的辨别器反馈以及通过向生成器注入 3D 噪声张量进行全局和局部采样,我们能够合成更高保真度的图像,并实现高质量的多模态图像 - GAN 训练的图像增强
本研究系统地研究了不同数据扩增技术在 GAN 训练中的有效性,并提供了关于如何扩增图像以改善生成图像保真度的见解和指南。我们还发现如果在真实图像和生成图像上使用扩增技术,即使只使用原始 GAN,也可以达到与最新技术成果相当的生成质量。如果结 - CVPR真实模糊下的去模糊
本论文提出了一种使用两个 GAN 模型的新方法,即学会如何模糊图像的深度学习模型和学习如何去模糊的深度学习模型,通过学习如何模糊图像来学习更好的图像去模糊模型,并使用相对论模糊损失来降低真实模糊与合成模糊之间的差异。实验表明,该方法在新提出 - ECCVGIQA: 生成图像质量评估
本研究提出 Generated Image Quality Assessment (GIQA) 算法,从学习和数据两个角度,定量评估 GAN 模型生成的图像质量。实验证明 GIQA 算法结果与人工评估基本一致,可应用于 GAN 模型的真实性 - GAN 潜空间中可解释方向的无监督发现
本文提出了一种无监督的方法来确定预先训练 GAN 模型的潜在空间中的可解释方向,从而实现对图像的控制生成,其应用包括弱监督显着性检测等。
- 诊断和优化 VAE 模型
本研究针对变分自编码器(VAEs)的效率和各种假设,提出了新的 VAE 增强方案,该方案不需要任何超参数或敏感调整,并且与多种 GAN 模型竞争时,能产生清晰的样本和稳定的 FID 分数。
- NIPS模型比较的信息特征
本文介绍了两种新的非参数统计测试方法,能够快速且可解释地测量两种候选模型拟合程度的优劣,并找到一些区域作为信息特征来描述它们的差异,实验结果表明,该方法在比较 GAN 模型方面具有优越性能。