本文提出了一个用于无条件生成场景图的生成模型 SceneGraphGen,通过层级循环架构直接学习带标签和有向图的概率分布,生成的场景图多样且遵循真实场景的语义模式,同时还证明了生成的图在图像合成、异常检测和场景图完整性方面的应用。
Aug, 2021
提出了一种利用场景图生成图像的模型,其中包括图形卷积来处理输入图形、预测对象的边界框和分割掩模来计算场景布局,并使用级联细化网络将布局转换为图像,训练对抗鉴别器来确保生成的图像具有逼真度。
Apr, 2018
本研究提出一种在场景图生成任务中能够处理零样本和小样本情况的密度归一化边缘损失函数,并且介绍了新的加权评估指标来提高模型性能。
May, 2020
该研究的目的是通过将生成模型的虚拟数据迭代地逼近真实世界的数据分布,提高计算机视觉系统训练的泛化性能,该方法通过对生成图形模型的参数先验分布进行后验密度估计,结合生成对抗训练,提高了交通场景语义标注任务的性能。
Jan, 2017
本文提出了一种利用外部知识和图像重建损失的新型场景图生成算法,提取外部常识知识以改进场景图的可推广性,并通过在场景图生成网络上引入辅助图像重建路径来解决嘈杂对象注释的偏差问题,全面实验证明我们的框架可以生成更好的场景图,并在 “视觉关系检测” 和 “视觉基因组” 两个基准数据集上实现了最先进的性能。
Apr, 2019
本文介绍了一种比较复杂场景条件生成模型的方法,分析了每种模型的性能和优势,发现通过对实例化空间调节规范化等措施可以提高对看得到和看不到的物体组合条件的泛化性能,同时应用语义损失可改善生成过程中的某些方面。
Dec, 2020
论文提出了一种通过获取视觉常识来改善场景图生成模型的鲁棒性的方法,并使用 Transformer 模型结合场景图结构训练了 GLAT 模型,该模型可以纠正明显的错误。通过实验证明,该模型比其他方法更好地学习了视觉常识,并提高了最先进场景图生成模型的准确性。
Jun, 2020
本文提出了一种半监督方法,通过很少的带标签的样本分配概率关系标签到大量未标记的图像,生成足够的训练数据来训练任何现有的最先进的场景图模型,该方法在场景图预测方面优于所有基准方法,此外,我们定义了一种关系的复杂度指标,为条件提供指示符。
本文提出 Composition-by-Decomposition 网络,采用两个独立分布的物体生成具有真实纹理和形状的合成图像,以此捕捉多物体之间的空间相互作用关系,从而在生成场景方面获得更好的效果。
Jul, 2018
本研究提出使用场景图上下文来改善场景图的图像生成,通过引入上下文网络将图卷积神经网络生成的特征并入图像生成网络和对抗性损失,从而不仅能够生成逼真的图像,还能更好地保留非空间对象之间的关系,并定义两个评估指标,Relation Score 和 Mean Opinion Relation Score,直接评估场景图的一致性,并经过定量和定性研究证明了该模型在这一具有挑战性的任务上优于现有技术。
Jan, 2019