关系抽取作为开卷考试:检索增强的提示调整
本文通过三种不同的方案对低资源情况下关系抽取系统进行了全面研究,并创建了包含8个RE数据集的基准,示范了不同的方法与结合的影响,结果表明虽然基于提示的调整有助于低资源RE,但在从跨句子上下文中提取多个关系三元组时仍有很大改善潜力,数据增强与自我训练可以较好地充实现有基准,并可带来很多性能提升,然而自我训练并不能始终实现低资源关系抽取的进步。
Oct, 2022
本文提出了一种新的生成式提示调整方法,将关系分类重新构造为一种填充问题,旨在解决当前提示方法的局限性,并在推理期间设计实体导向的解码和判别关系评分以有效地生成和对齐关系,并在完全监督的设置和低资源设置下展示了我们方法的有效性。
Oct, 2022
本文提出了一种新的基于提示的学习方法LabelPrompt,用于关系分类任务,通过定义附加令牌来表示关系标签,并构建提示模板方法,以及设计一个实体感知模块和注意查询策略来解决模型中的一些挑战,极大地提高了在缺乏标注数据情况下利用提示学习的适应能力,特别是在少样本场景中的表现超过了其他几种方法。
Feb, 2023
本文提出了一种无监督的关系提取模型PromptORE,通过嵌入表达关系的句子并进行聚类来发现候选关系,此模型较之现有的最先进模型在三个一般性和特定领域的数据集上均表现出优异的性能,在B3,V-measure和ARI上的相对改进达40%以上,并能够识别出语义相近的聚类,这是一种不需要超参数调整的模型。
Mar, 2023
本文探讨了利用GPT-3和Flan-T5等大型语言模型来进行关系提取(RE)的问题,通过将关系线性化生成目标字符串的方法进行了序列到序列的任务处理,通过人工评估的方式,在不同程度的监督下评估了它们在标准RE任务中的表现,发现通过GPT-3进行的少量提示与现有完全监督模型大致相当,而使用Chain-of-Thought风格的解释进一步监督和微调后,该模型产生了最优结果。
May, 2023
本研究聚焦于使用大型语言模型作为无样本关系抽取器。通过分析现有关系抽取提示的不足之处,并引入诸如CoT的最新提示技术,我们提出了一种名为SumAsk的简单提示方法,通过使用大型语言模型将关系抽取输入转化为有效的问答格式。同时,我们在各种基准测试和设置上进行了广泛的实验,研究了大型语言模型在无样本关系抽取方面的能力,发现SumAsk方法在不同模型尺寸、基准测试和设置上都能显著提高大型语言模型的性能,在与无样本和完全监督方法相比具有一定竞争力甚至优越性能的同时,大型语言模型在提取重叠关系方面表现出了良好的性能,然而,不同的关系之间性能差异较大,大型语言模型相较于小型语言模型在处理挑战性的无适用项关系时表现出了有效性。
Oct, 2023
通过结合基于提示的技术和数据编程,PromptRE是一种新型的弱监督文档级关系提取方法,利用标签分布和实体类型作为先验知识来改善性能,在关系分类和处理“无关系”问题方面表现出了更好的性能,实验证明PromptRE在ReDocRED数据集上优于基线方法。
Oct, 2023
在低资源情境下,通过多视角关系表示的基于提示的方法(MVRE)能够有效提高关系抽取任务的性能,并在三个基准数据集上达到了最先进的低资源表现。
Dec, 2023
Fine-tuned large language models integrated into the Retrieval-Augmented-based approach demonstrate exceptional performance in identifying implicit relations, surpassing previous results on SemEVAL and achieving substantial gains on TACRED, TACREV, and Re-TACRED datasets.
Jun, 2024
本文旨在解决现有生成关系抽取方法仅假设实体对之间存在单一确定关系的问题,这限制了其应用范围。提出的CPTuning方法创新性地将关系抽取视为一个生成任务,通过对比提示调优关联候选关系的概率,实现了多关系抽取,并通过广泛的实验验证了其优越性,显著提升了抽取效果。
Jan, 2025