实体或关系嵌入:关系抽取编码策略分析
本论文使用预训练的知识图谱嵌入模型,结合文本语料库的句子级上下文表示,实现了较高性能的关系抽取模型,并通过实验验证了该方法的有效性和出色性能。
Jun, 2023
本文提出了一种基于语法树和句子嵌入的远程监督关系抽取方法,使用句子和实体的嵌入对关系进行分类,实验结果表明这种方法在真实数据集上取得了最佳的性能。
Jan, 2018
本文主要研究了最新的自然语言处理技术中,神经网络和语言模型在命名实体识别和关系抽取方面的应用以及它们在训练过程中面临的一些挑战。我们发现,预训练的语言模型对发现未曾见过的命名实体表现良好,但对于未曾见过的关系则有待加强,因此模型的理解能力仍存在提升空间。
Jun, 2022
本研究提出了一种模型,结合了预训练的 BERT 语言模型和目标实体信息,来解决关系分类任务。通过定位目标实体和在预训练模型中传递信息,并整合两个实体的相应编码信息,我们在 SemEval-2010 任务 8 关系数据集上取得了显著的改进。
May, 2019
本研究旨在探讨如何从预训练的语言模型中提取出表示两个词之间关系的向量,并通过 Fine-tuning 使类似关系的词对应的向量相似,实验结果表明,即使在没有任务特定的 Fine-tuning 的情况下,所得到的关系嵌入在类比和关系分类基准测试中都具有很高的竞争力。
Sep, 2021
我们提出了一种使用相对较小的语言模型从文本中提取关系嵌入的方法,这种方法可以在关系相似性方面取得出色的结果,并且在关键词和模型性能方面显著优于其他基于提示的语言模型。
Sep, 2023
通过预训练的语言模型,我们提出了一种新颖的在上下文中进行少样本关系抽取的框架,该框架可以消除命名实体识别和人工注释文档的需要,并实现了与现有方法相比最先进的性能。
Oct, 2023
本文提出一种新方法用于从自由文本中提取关系,该方法通过从知识库中学习单词和实体关系的低维嵌入来联合使用文本和现有知识信息,实验证明该方法能够有效地利用大量 Freebase 数据 (4M 实体、23k 关系) 提供的额外信息来改善仅依赖于文本特征的现有方法。
Jul, 2013
本文探讨了利用 GPT-3 和 Flan-T5 等大型语言模型来进行关系提取(RE)的问题,通过将关系线性化生成目标字符串的方法进行了序列到序列的任务处理,通过人工评估的方式,在不同程度的监督下评估了它们在标准 RE 任务中的表现,发现通过 GPT-3 进行的少量提示与现有完全监督模型大致相当,而使用 Chain-of-Thought 风格的解释进一步监督和微调后,该模型产生了最优结果。
May, 2023
本文提出了一个创新的关系抽取任务的体系结构,其将语义信息与知识库建模相结合。该模型通过将句子编码为上下文关联嵌入来进行关系抽取,并结合参数化实体嵌入来评分关系实例。该 CRE 模型在来自纽约时报注释语料库和 FreeBase 的数据集上实现了最新的表现。
Nov, 2020