跨语言关系抽取的 Prompt 学习
在低资源情境下,通过多视角关系表示的基于提示的方法(MVRE)能够有效提高关系抽取任务的性能,并在三个基准数据集上达到了最先进的低资源表现。
Dec, 2023
本文提出了基于双语词向量映射的方法,将一个好的源语言神经网络关系抽取模型直接应用于目标语言,从而实现了跨语言关系抽取模型的转移。实验证明该方法在多种目标语言中表现出较好的性能。
Oct, 2019
本研究介绍了 GPT-RE,这是一种解决大型语言模型在关系提取中局限性的方法,包括任务特定实体表现的使用和黄金标签引导推理逻辑的使用。该方法在四个数据集上的实验结果表明其超过了 GPT-3 基线并且在 Semeval 和 SciERC 数据集上实现了 SOTA 表现。
May, 2023
Fine-tuned large language models integrated into the Retrieval-Augmented-based approach demonstrate exceptional performance in identifying implicit relations, surpassing previous results on SemEVAL and achieving substantial gains on TACRED, TACREV, and Re-TACRED datasets.
Jun, 2024
基于预训练语言模型的多任务提示学习框架(TemPrompt)结合了提示调整和对比学习来解决事件的演变以及任务请求的问题,实验结果表明在标准和少样本情况下,TemPrompt 在多个指标下优于其他基准模型,并通过案例研究验证了在众包场景中的有效性。
Jun, 2024
本文提出了一种无监督的关系提取模型 PromptORE,通过嵌入表达关系的句子并进行聚类来发现候选关系,此模型较之现有的最先进模型在三个一般性和特定领域的数据集上均表现出优异的性能,在 B3,V-measure 和 ARI 上的相对改进达 40% 以上,并能够识别出语义相近的聚类,这是一种不需要超参数调整的模型。
Mar, 2023
本文通过三种不同的方案对低资源情况下关系抽取系统进行了全面研究,并创建了包含 8 个 RE 数据集的基准,示范了不同的方法与结合的影响,结果表明虽然基于提示的调整有助于低资源 RE,但在从跨句子上下文中提取多个关系三元组时仍有很大改善潜力,数据增强与自我训练可以较好地充实现有基准,并可带来很多性能提升,然而自我训练并不能始终实现低资源关系抽取的进步。
Oct, 2022
本文提出了一种基于多语言训练的实体和关系抽取框架 (mERE),使用两阶段多语言训练方法和多语言实体、关系抽取联合模型,通过语言通用聚合器 (LA) 和语言特定切换器 (LS) 分别缓解语言干扰并提高关系三元组的抽取效果,实验结果表明该方法优于单语言和多语言基线模型。
Jan, 2023