通过预训练语言模型和锚定对比预训练框架,本研究在少样本关系抽取中取得了显著的性能提升,并展示了对领域迁移和零样本关系抽取的优越适应能力。
Dec, 2023
我们引入了一个元数据集,其中包括两个从现有的监督关系抽取数据集 NYT29 和 WIKIDATA(以及 TACRED 的 few-shot 形式)中派生的数据集。我们对六种最近的 few-shot 关系抽取方法进行了全面评估,观察到没有一种方法被明确地确定为胜者。此任务的整体性能较低,表明未来研究有很大的需求。我们释放了所有数据版本,即监督和 few-shot 数据,供未来研究使用。
Apr, 2024
本文提出了一种 Multi-Choice 匹配网络来统一少样本关系抽取,使用三元组改写元训练来填补零样本和少样本之间的差距,实验结果表明所提出的方法在三种不同的少样本关系抽取任务上表现优异,是少样本关系抽取领域中表现最好的模型。
Mar, 2022
本文提出了一种新颖的基于实体概念增强的少样本关系提取方案(ConceptFERE),通过计算句子与概念之间的语义相似度,选择最合适的概念,再通过自注意力融合模块建立概念嵌入和句子嵌入之间的联系,提高了关系分类性能。
Jun, 2021
本论文提出了一个新的模型,即 FSRL 模型,在少量有参考的情况下学习新关系,可以更有效地从异构图结构中获取知识,并匹配每个关系的参考集中的相似实体对。实验结果表明,该模型优于现有的最先进的模型。
Nov, 2019
本篇论文提出基于序列标注联合提取方法的小样本关系抽取任务,利用少量标注数据解决领域中标注数据不足的问题,并将两种实际序列标注模型应用于这个框架达到了良好的效果。
Aug, 2022
本文提出了一种新的直接加法方法来更加明确有效地将关系信息引入 Few-Shot 关系提取模型,该方法通过连接两种关系视图来生 成关系表示,并将其直接添加到原型中进行训练和预测,在 FewRel 1.0 基准数据集上实现了显著的改进,并且与最先进的结果相当。
May, 2022
本文提出了利用元任务之间的关系来辅助元学习的方法,分别考虑了在两种类型的元任务对上的关系,并提出了不同的策略来利用它们:1)有不相交类集的两个元任务,2)有相同类集的两个元任务,并给出了相应的新学习目标。然而由于实验中的一些错误,我们选择撤回本文。
Feb, 2020
本文提出了一个概念简单、灵活、普适的框架来进行少样本学习,并在五个基准测试中展示了该方法的有效性。
Nov, 2017
该论文介绍了一个用于解决低资源场景下关系抽取的方法,该方法基于自监督学习和对比学习,以一致的目标进行预训练和微调,在两个数据集上的实验表明,该方法在使用 1% 的数据时,较基于 PLM 的分类器分别提高了 10.5%和 5.8%的性能水平。
Dec, 2022