基于条件协调的部分生成
本文提出 Composition-by-Decomposition 网络,采用两个独立分布的物体生成具有真实纹理和形状的合成图像,以此捕捉多物体之间的空间相互作用关系,从而在生成场景方面获得更好的效果。
Jul, 2018
本研究提出了一种基于将图像转换为一组点云的独特图像生成过程,利用名为上下文聚类(Context Clustering)的简单聚类方法和多层感知器(MLP)作为生成模型,无需使用卷积或注意机制,并通过集成称为 Point Increaser 的模块来生成额外的聚类点,最终实现了在特征聚合和分发领域中独特的 Context Clustering Generative Adversarial Network(CoC-GAN)模型的视角。实证评估表明,我们的 CoC-GAN 模型在没有卷积和注意机制的情况下展现出了优秀的性能和可解释性,取得了令人满意的结果,从而为将上下文聚类应用于更多新颖和可解释的图像生成方法的未来研究奠定了基础。
Aug, 2023
该论文介绍了一种基于非参数方法和核密度估计技术的生成式对抗网络(GANs)模型 IC-GAN 来模拟复杂数据集的分布,提高了图像生成的真实性和数量结果,同时也具备对未见过数据集的泛化能力。
Sep, 2021
本文提出了联合生成对抗网络 (CoGAN) 用于学习多域图像的联合分布。 与现有方法相比,CoGAN 可以在不需要不同域中对应图像元组的情况下,仅通过来自边际分布的样本学习联合分布,并将其应用于许多联合分布学习任务,包括颜色和深度图像的联合分布以及具有不同属性的脸部图像的联合分布。 此外,对于域自适应和图像转换,也展示了其应用。
Jun, 2016
本研究提出了一种基于多元鉴别器协同训练的生成对抗网络 GenCo,通过提供多角度的监督信息减轻鉴别器过拟合问题,该方法在有限的训练数据下达到了优越的图像生成结果,并通过与数据增强方法相结合获得了更加稳定且明显的性能提升。
Oct, 2021
Generative Adversarial Networks 已经在绘制逼真的世界图片方面展现了相当可观的能力,现有的模型可以根据类别标签或标题等全局限制生成图像,但不能控制姿势或对象位置,本文提出了一种新的模型 ——Generative Adversarial What-Where Network,它能根据所描述的内容和位置进行图像综合,并在 Caltech-UCSD Birds 数据集上展示了高质量的 128 x 128 图片综合,还可以控制鸟周围的边界框及其组成部分,通过模拟条件分布,我们的系统还能够使各个部分进行控制,同时展示了在 MPII Human Pose 数据集的关于人体动作图像的文本与位置可控合成的初步结果。
Oct, 2016
理解人类是如何处理视觉对象的是认知科学的一个核心问题,这篇研究利用 Concept based Controllable Generation (CoCoG) 框架,通过两个组成部分 —— 提取可解释概念并预测人类在视觉相似性判断任务中的决策行为的 AI 代理以及给定概念生成视觉刺激的条件生成模型,评估了 CoCoG 的性能,结果显示 CoCoG 能够准确预测人类行为、生成多样的对象以及通过干预关键概念操纵人类相似性判断行为,为深入理解人类认知中的因果关系提供了具有控制概念的视觉对象。
Apr, 2024
本文提出了一种通过免费手绘的草图实现控制式图像生成的方法,使用由属性向量桥接的生成对抗网络进行高质量的对象级图像内容生成,在称为 SketchyCOCO 的大规模混合数据集中验证了该方法的运用和效果并证明了其生成逼真复杂的场景级图像的能力。
Mar, 2020