深度关系推理图网络用于任意形状文本检测
本论文提出了一种名为 ReLaText 的新型任意形状文本检测方法,通过采用将文本检测转化为视觉关系检测问题的方法,使用基于锚点自由区域提案网络的文本检测器以及基于图卷积网络(GCN)的链接关系预测模块,实现了更为准确和高效的文本检测。实验结果表明,ReLaText 达到了 5 个公共文本检测基准(RCTW-17、MSRA-TD500、Total-Text、CTW1500 和 DAST1500)的最佳性能。
Mar, 2020
该研究提出了一种名为 GloRe 的全局推理单元,实现了卷积神经网络对于远距离区域之间的全局关系的建模,能够有效提升图像识别、语义分割和视频行为识别等计算机视觉任务的性能。
Nov, 2018
我们提出了使用关系图卷积网络(RGCNs)进行情感分析的方法,该方法通过捕捉作为图中节点表示的数据点之间的依赖关系,提供了解释性和灵活性。通过在亚马逊和 Digikala 数据集上使用预训练的语言模型(如 BERT 和 RoBERTa)与 RGCN 架构进行产品评论的情感分析,并评估结果,我们证明了我们方法的有效性。我们的实验证明了 RGCNs 在捕捉情感分析任务的关系信息方面的有效性。
Apr, 2024
本文提出了一种基于图卷积神经网络的深度网格关系捕捉方法,结合形状完整性任务实现单张图像的 3D 人体形状重建,通过在网格节点之间的深度关系编码来解决预定义邻接矩阵的局限性,并通过形状完成任务来学习各种遮挡情况的先验知识减轻了性能退化问题。
Aug, 2021
提出了一种新颖的场景图生成模型 ——Graph R-CNN,其在检测图像中的对象和它们之间的关系方面既有效又高效。该模型包含一种关系提议网络(RePN),能够有效地处理图像中潜在关系的二次数量。同时,我们提出了一种注意力图卷积网络(aGCN),有效地捕捉对象和关系之间的上下文信息。最后,我们引入了一种比现有指标更全面、更实际的评估方法。我们使用现有指标和我们提出的评估方法评估场景图生成,获得了最先进的性能。
Aug, 2018
本文提出了一种基于卷积神经网络的关系图网络模型,该模型利用方向特征、语义特征和空间坐标,结合盒子候选回归和点注意池化,探索关系图对于提高候选物体外观特征的影响,最终成功实现了在点云中检测三维物体的任务。
Nov, 2019
提出了使用适应性文本区域表示的鲁棒场景文本检测方法,利用文本区域提案网络提取文本提案,再通过细化网络对提案进行验证和优化。实验结果在五个基准上表明,这种方法在场景文本检测方面达到了最先进水平。
May, 2019
本文提出了一种基于自然语言句子来生成图神经网络参数的方法(GP-GNNs),使 GNN 能够处理非结构化文本输入的关系推理,验证了在文本关系抽取中的有效性,并展示了我们的模型通过多跳关系推理可以发现更准确的关系。
Feb, 2019
本文提出了一种新的方法,使用空间图卷积网络(GCN)应用于 OCR 文本框,在文档图像中识别段落。通过线路分割和线路聚类两个步骤,从 OCR 结果的行中提取段落。每个步骤使用从边界框建立的贝塔骨架图,其中图边提供了有利于图卷积操作的高效支持。仅使用纯布局输入特征,GCN 模型大小比基于 R-CNN 的模型小 3~4 个数量级,同时在 PubLayNet 和其他数据集上实现可比较或更好的准确性。此外,GCN 模型在从合成训练数据到真实世界图像的转换,以及针对可变文档样式的适应性方面表现良好。
Jan, 2021