提出一种基于 VTransE 方法的上下文增强翻译嵌入模型,可以捕捉常见和罕见关系,进而提升图像理解能力。该模型可以有效地识别已知关系和未知关系,同时在多个基准测试中取得了优秀的表现,特别是在场景图生成任务中表现尤为突出。
May, 2019
本论文提出了一种新的基于深度学习的架构 —— 多模态注意力翻译嵌入模型,该模型使用多模态关注机制驱动每个分支的视觉特征,并在常用的 VRD 数据集上的实验表明,该方法明显优于其他相关方法。
Feb, 2019
通过引入无解码器架构和注意力机制,我们提出了一种简单高效的基于 Transformer 的图像编码器模型,用于开放词汇视觉关系检测,并在 Visual Genome 和大词汇 GQA 基准测试上实现了最好的关系检测性能。
Mar, 2024
本文介绍了知识图谱嵌入的相关研究,提出了一种新的模型 ——TransF,有效地解决了前置模型无法处理的关系问题,并通过基准数据集的链接预测和三元组分类实验,证明了该模型相对于其他前沿模型具有明显的性能提升。
May, 2015
本文提出了一种基于复杂空间中新颖的加权乘积所构建的关系自适应翻译函数的嵌入方法,即 RatE,该方法具有高度的表达能力,可以有效地缓解嵌入歧义问题,并在四个链接预测基准测试中取得了最先进的性能。
Oct, 2020
本文提出一种新的嵌入式模型 STransE,结合了多种先前的链接预测模型,用于知识库的链接预测任务,它将每个实体表示为低维向量,用两个矩阵和一个翻译向量表示每个关系,并在两个基准数据集上获得更好的链接预测表现。
Jun, 2016
利用 VReBERT 模型的多阶段训练策略,联合处理视觉和语义特征的 VRD 模型,可以有效地预测谓词关系,推动零样本预测技术的发展。
Jun, 2022
该论文提出了一种新型的弱监督方法,使用最少的图像级谓词标签,利用图神经网络从检测到的对象的图形表示中对图像中的谓词进行分类,将关系检测作为谓词分类器的解释,并在三个不同且具有挑战性的数据集上展示结果,表明该方法具有对不全面注释的强健性和良好的少样本泛化能力。
Jun, 2020
该研究提出一种新的关系检测模型,将物体和关系嵌入到两个矢量空间中,同时保留了区分能力和语义关联性,并在基于 Visual Genome 的大规模和不平衡基准上展示了该模型的有效性。
Apr, 2018
近年来,场景图生成在视觉场景理解任务中受到越来越多的关注。本文提出了一种名为 VETO 的视觉关系变换器,采用新颖的实体关系编码器以捕捉实体的局部级线索,并引入一种名为 MEET 的互斥专家学习策略以消除对头部或尾部类别的偏见,实验结果表明,VETO + MEET 的预测性能比现有技术高出 47 个百分点,并且尺寸缩小了 10 倍。
Aug, 2023