ESGNN:面向三维场景理解的等变场景图神经网络
通过三个连续的阶段,构建场景图、推理和推断,我们提出了一种三维基于点的场景图生成(SGG_point)框架,在推理阶段创建了一种面向边缘的图卷积网络(EdgeGCN),以利用多维边缘特征进行显式关系建模,同时探索了节点和边缘之间的两种相关的孪生交互机制,以独立演化场景图表示。
Mar, 2021
该论文提出了一种从图像中直接学习神经场景表示的框架,通过引入一种强制要求该场景表示对于 3D 变换等变的损失函数,使得我们可以实时推断和渲染场景,并在标准 ShapeNet 基准测试上获得了很好的结果。
Jun, 2020
本文介绍了一种新的模型来学习具有等变性的图神经网络,称为 EGNN,此方法不需要在中间层中计算昂贵的高阶表示,同时具有竞争力或更好的性能,在 3 维空间等变性上具有比现有方法更大的伸缩性,并在动态系统建模,图自编码器中的表征学习和预测分子性质方面证明了其有效性。
Feb, 2021
本文提出了一种基于场景图的三维场景理解方法,它将场景中的实体组织成图形式,运用基于 PointNet 和 Graph Convolutional Networks(GCN)的学习方法实现了场景图的回归,并且引入了一个新的数据集 3DSSG 来支持该方法的应用和评估。
Apr, 2020
本论文介绍了 Equivariant Graph Neural Operator(EGNO)的新颖方法,该方法通过建立从时间到空间的映射,直接将动力学建模为轨迹而不仅仅是下一步预测,并且通过引入傅里叶空间中参数化的等变时态卷积来捕捉时态相关性,实现了模拟 3D 动力学的全新操作学习框架。一系列实验表明 EGNO 在多个领域(包括粒子模拟、人体运动捕捉和分子动力学等)中表现出显著优越的性能。
Jan, 2024
基于神经隐式表示的 3D 场景分割方法,通过多视图图像特征和语义地图作为输入,采用软投票机制来聚合来自不同视图的二维语义信息,结合视角差异信息预测投票分数,通过可见性模块筛选掉遮挡视图的有害信息,在只有二维语义监督的情况下,能够综合合成语义地图或进行新场景的三维语义分割。
Oct, 2023
该研究旨在通过引入群等变性,提高当前用于 3D 点云的神经网络的泛化和鲁棒性。在实验中,该方法表现出比其他群等变模型更优越的性能,且具有较低的复杂度和 GPU 内存占用,提升了诸如物体分类和语义分割等任务的性能。
May, 2022
这篇研究论文提出了直接从场景图形中生成形状的第一种方法,并利用图卷积网络(Graph Convolutional Networks)对物体类别、边缘类别、3D 形状和场景布局进行 VAE 训练,从而支持场景生成和修改。
Aug, 2021
通过提出 E3-Net,引入一种高效的随机框架方法、高斯加权损失函数和感知层感知推理策略来实现点云法线估计的等变性,从而显著提高了模型的准确性。与当前最先进的技术相比,我们在两个合成数据集和一个真实世界数据集上的结果都更优秀,RMSE 分别提高了 4%、2.67% 和 2.44%。
Jun, 2024