混合视觉证据下的少样本关系抽取
本文研究了基于多模态数据的命名实体识别和关系提取,提出了一种新的基于视觉增强的实体和关系提取方法,即分层视觉前缀融合网络(HVPNeT),通过使用动态门控聚合策略,利用多层次视觉特征进行视觉前缀的融合,从而实现更有效和稳健的性能,实验证明了此方法的有效性和领先性。
May, 2022
本文提出了一种新颖的基于实体概念增强的少样本关系提取方案(ConceptFERE),通过计算句子与概念之间的语义相似度,选择最合适的概念,再通过自注意力融合模块建立概念嵌入和句子嵌入之间的联系,提高了关系分类性能。
Jun, 2021
本研究提出了一种多模态关系抽取方法,通过检索对象、句子和整个图像的文本和视觉证据,综合考虑了同一和不同模态之间的信息,从而比现有的方法更准确地识别语义关系并显著提高了效果。
May, 2023
我们提出了一种首个预训练方法,用于少样本谓词分类,无需任何带注释的关系;我们构建了少样本训练集,并在 VG200 和 VRD 数据集上展示了我们模型超过基准的定量实验;最后,我们通过进行各种定性实验来解释模型的决策。
Nov, 2023
本文提出了一种新的直接加法方法来更加明确有效地将关系信息引入 Few-Shot 关系提取模型,该方法通过连接两种关系视图来生 成关系表示,并将其直接添加到原型中进行训练和预测,在 FewRel 1.0 基准数据集上实现了显著的改进,并且与最先进的结果相当。
May, 2022
提出了一种用于多模态关系提取的变分多模态超图注意网络(VM-HAN),通过利用图像信息在文本中识别实体间的关系,构建了每个句子的多模态超图,并利用高斯分布实现了实体对之间的代表性多样性,从而在多模态关系提取任务中取得了最先进的性能。
Apr, 2024
本文提出了一种基于 Mutual Guided Few-shot 学习框架的关系三元组抽取方法,该方法通过实体解码器和关系解码器相互指导,加上原型融合模块,能够在使用少量数据的情况下显著提高抽取准确度,在 FewRel 1.0 和 FewRel 2.0 数据集上表现优异。
Jun, 2023
本文提出了 MoRe 框架,使用多模态检索方法,结合文本和图像信息进行命名实体识别和关系抽取,并使用 Mixture of Experts 模块以获得最终决策。在实验中,MoRe 模型达到了四个多模态实体识别数据集和一个多模态关系抽取数据集的最佳性能,证明了结合文本和视觉提示在这些任务中对提高性能具有实际意义。
Dec, 2022
本研究提出了一个基于知识增强的少样本学习(few-shot learning)框架,利用预训练语言模型和自动构建的视觉关系知识图谱获取了文本知识和视觉关系知识,从而提高了少样本学习的实用性和性能。与现有最先进模型相比,在常用的 Visual Genome 数据集的三个基准测试中,本方法的性能大幅超越了现有最先进模型。
Mar, 2023
本篇论文提出基于序列标注联合提取方法的小样本关系抽取任务,利用少量标注数据解决领域中标注数据不足的问题,并将两种实际序列标注模型应用于这个框架达到了良好的效果。
Aug, 2022