本文研究了少样本关系抽取问题,在元学习的基础上,提出了一种基于对比学习的方法,该方法通过利用关系标签信息来学习更好的表征,并进一步设计了一种方法,使模型能够自适应地学习如何关注难任务。实验表明,我们的方法在两个标准数据集上都有出色的表现。
Sep, 2021
该论文介绍了一个用于解决低资源场景下关系抽取的方法,该方法基于自监督学习和对比学习,以一致的目标进行预训练和微调,在两个数据集上的实验表明,该方法在使用 1% 的数据时,较基于 PLM 的分类器分别提高了 10.5%和 5.8%的性能水平。
Dec, 2022
本文提出了一种新颖的基于实体概念增强的少样本关系提取方案(ConceptFERE),通过计算句子与概念之间的语义相似度,选择最合适的概念,再通过自注意力融合模块建立概念嵌入和句子嵌入之间的联系,提高了关系分类性能。
Jun, 2021
本文提出了一种 Multi-Choice 匹配网络来统一少样本关系抽取,使用三元组改写元训练来填补零样本和少样本之间的差距,实验结果表明所提出的方法在三种不同的少样本关系抽取任务上表现优异,是少样本关系抽取领域中表现最好的模型。
Mar, 2022
通过预训练的语言模型,我们提出了一种新颖的在上下文中进行少样本关系抽取的框架,该框架可以消除命名实体识别和人工注释文档的需要,并实现了与现有方法相比最先进的性能。
Oct, 2023
使用 Prompt Learning 框架和对抗式学习等技术,本文提出了一种解决持续的少样本关系抽取中灾难性遗忘和过拟合问题的方法,该方法通过引入更广义的知识表示和关注难例样本实现了对预训练语言模型的扩展和优化,同时引入有效的内存增强策略来缓解在资源匮乏情况下的过拟合问题,并通过大量实验证明了该方法在性能上超过了现有方法,并且在资源匮乏情景下显著降低了灾难性遗忘和过拟合。
Feb, 2024
本篇论文提出基于序列标注联合提取方法的小样本关系抽取任务,利用少量标注数据解决领域中标注数据不足的问题,并将两种实际序列标注模型应用于这个框架达到了良好的效果。
Aug, 2022
通过使用语言模型生成初始种子实例并结合反馈进行改进,在关系抽取任务中实现零样本学习,取得了较基准方法更好的性能。
本文介绍了一种对称的对齐机制,用于学习从极少的例子中获取更广义的视觉概念的方法。实验结果表明,该方法是通用的,并提供了一个强大的基准。
Oct, 2022
本文介绍了基于句法结构和语义之间的亲缘关系,并据此进行中间预训练的关系抽取模型。通过使用相关句法关系进行预训练,不需要额外标注的情况下,该模型在六个跨域设置中有五个比基线模型表现更好。
May, 2023