从视觉场景中学习物理图形表示
本文提出了一种基于场景图的三维场景理解方法,它将场景中的实体组织成图形式,运用基于 PointNet 和 Graph Convolutional Networks(GCN)的学习方法实现了场景图的回归,并且引入了一个新的数据集 3DSSG 来支持该方法的应用和评估。
Apr, 2020
该论文提出了一种新的神经渲染方法,能够将动态环境分解成场景图,通过隐式编码学习场景的变换和辐射度,并能够渲染未见过的物体、位置的各种动态场景,达到了高度逼真的效果。
Nov, 2020
提出了两种改进场景结构表示法的方法,通过启发式关系和极端点表示法,显著提高相关分数测量方法的性能,并演示了如何使用场景图检索与源查询语义相似的姿态约束图像块,这是实现逼真图像生成的重要一步。
Apr, 2019
提出了一种利用场景图生成图像的模型,其中包括图形卷积来处理输入图形、预测对象的边界框和分割掩模来计算场景布局,并使用级联细化网络将布局转换为图像,训练对抗鉴别器来确保生成的图像具有逼真度。
Apr, 2018
该研究提出了一种从预先训练的卷积神经网络中提取对象 - 部分概念的学习策略,通过挖掘预先训练的 CNN 中的潜在模式,并将它们与不同的语义部分关联来逐步在 CNN 上构建一个具有语义解释性的图形模型,以实现层次化的对象理解。
Nov, 2016
本文提出了一个用于无条件生成场景图的生成模型 SceneGraphGen,通过层级循环架构直接学习带标签和有向图的概率分布,生成的场景图多样且遵循真实场景的语义模式,同时还证明了生成的图在图像合成、异常检测和场景图完整性方面的应用。
Aug, 2021
该研究提出了一种新型的 Graph Property Sensing Network(GPS-Net),通过增加三种属性,即边缘方向信息、节点优先级差异和关系长尾分布来提高场景图生成(SGG)的准确性和效率,并在多种设置和指标下在三个流行数据库中取得了最优效果。
Mar, 2020
通过三个连续的阶段,构建场景图、推理和推断,我们提出了一种三维基于点的场景图生成(SGG_point)框架,在推理阶段创建了一种面向边缘的图卷积网络(EdgeGCN),以利用多维边缘特征进行显式关系建模,同时探索了节点和边缘之间的两种相关的孪生交互机制,以独立演化场景图表示。
Mar, 2021
提出了一种连续三维结构感知场景表征模型 Scene Representation Networks (SRNs),能够通过不需要深度或形状信息的二维图像及其相机姿态进行端到端训练, 并在视角合成、少样本重建、形状外插及表现插值等任务中展示出潜力。
Jun, 2019