本文介绍了 Zero-RTE 任务及其解决方案 —— 使用结构化的提示模板来生成合成关系样本,并使用三元组搜寻解码方法来克服在句子中提取多个关系三元组的限制。实验表明,RelationPrompt 对于 Zero-RTE 任务和零样本关系分类非常有效。
Mar, 2022
本文提出了一种零样本文档级关系三元组提取(ZeroDocRTE)框架,通过从大型语言模型(LLMs)中检索和去噪知识生成标记数据,用于提取具有语义关系的实体,实现了零样本文档级关系和三元组的提取任务。
Jan, 2024
本文提出一种新的框架 ZETT,基于预训练语言模型,并采用端到端生成式 Transformer 技术,将三元组抽取任务简化为模板填充任务从而具备了零 - shot 学习能力,并能利用语言模型中的隐含知识,实验表明该方法可以在不进行数据增强和流水线系统的情况下超过之前的最优模型,对实体的检测也更为稳健。
Dec, 2022
本研究介绍了一种名为 PCRED 的零样本关系三元组抽取方法,采用候选关系选择和实体边界检测的方法,不依赖于额外的数据且表现优异,最终实验结果表明 PCRED 方法始终优于以往研究。
Nov, 2022
运用文本三元组转换模型,将信息提取任务转化为输入文本到输出三元组的翻译过程,通过预训练语言模型的潜在知识对不同任务进行转换,预测输入文本对应的关系性信息可以有效地生成任务特定的输出,并且不需要任何特定的任务训练就可以实现零样本迁移,相比于有训练集的监督学习,具有明显的优势。
Sep, 2021
本文提出了一种 Multi-Choice 匹配网络来统一少样本关系抽取,使用三元组改写元训练来填补零样本和少样本之间的差距,实验结果表明所提出的方法在三种不同的少样本关系抽取任务上表现优异,是少样本关系抽取领域中表现最好的模型。
本文提出了一种基于 BERT 的多任务学习模型(ZS-BERT),通过零样本关系抽取解决新出现关系的抽取问题,实验结果表明该方法相比于现有的方法在 F1 分数上至少提高了 13.54%。
Apr, 2021
本文提出一种零 - shot 关系抽取的方法,通过将实体的描述翻译成问题,并使用生成的问题来生成正确的实体,在不需要使用黄金问题模板的情况下超过了以前的最先进技术。
Jan, 2023
本文提出了一种零样本学习方法,利用生成对抗网络从文本描述中学习新关系的语义特征并在知识图谱中识别新关系的事实,使得知识图谱的扩展更加容易,实验结果表明这种方法可以被广泛应用于任何版本的知识图嵌入,并在 NELL 和 Wiki 数据集上实现了一致的性能提升。
Jan, 2020
本文研究了利用少量标记数据进行关系抽取的方法,为了更好地概括新关系,我们提出了利用全局关系图的方法,使用贝叶斯元学习的方法来有效地学习关系的原型向量的后验分布,并使用随机梯度 Langevin 动力学来优化原型向量的后验分布,整个框架能够有效且高效地进行端对端优化。实验表明,我们的方法在少样例和零样例场景下的效果均优于竞争基线。
Jul, 2020