基于生成式 Transformer 的对比三元抽取
本论文设计了一种评估过滤框架,将大型语言模型与小型模型整合在一起,用于处理关系三元组提取任务,以获得更准确的提取结果。评估模型能够高精度提取相关实体对,并通过简单的标注原则和深度神经网络对模型进行嵌入,将输出作为提示加入到大型模型的提取过程中。通过大量实验证明,该方法可以帮助大型语言模型从含有多个关系三元组的复杂句子中获得更准确的提取结果,同时也能够嵌入传统提取模型以提高其从复杂句子中的提取准确率。
Apr, 2024
BitCoin 是一种创新的双向标记和监督对比学习的联合关系三元组提取框架,通过考虑主体和客体之间的多个正例,引入惩罚项来防止过度相似度,并实现了从主体到客体和从客体到主体的三元组提取。实验结果表明,BitCoin 在基准数据集上取得了最先进的结果,并显著提高了正常、SEO、EPO 和多关系提取任务的 F1 得分。
Sep, 2023
本文提出了 DirectRel 模型,通过构建 “头实体→尾实体” 二分图的链接问题,直接在一步中提取所有的关系三元组,并在两个常用数据集上取得比现有技术更好的实验结果。
May, 2022
本文提出了一种新的多原型嵌入网络模型,旨在共同提取关系三元组的组成,即实体对和相应的关系,通过设计一种混合的原型学习机制来连接文本和关于实体和关系的知识,从而注入实体和关系之间的隐式相关性,并提出原型感知正则化来学习更具代表性的原型,实验结果表明,该方法可以提高少样本三元组提取的性能。
Oct, 2020
运用文本三元组转换模型,将信息提取任务转化为输入文本到输出三元组的翻译过程,通过预训练语言模型的潜在知识对不同任务进行转换,预测输入文本对应的关系性信息可以有效地生成任务特定的输出,并且不需要任何特定的任务训练就可以实现零样本迁移,相比于有训练集的监督学习,具有明显的优势。
Sep, 2021
我们提出了一种基于查询的方法,用于构建关系三元组的实例级表示,然后通过对比学习,实现了关系三元组实例级表示的学习和全局信息连接,最终在五个广泛使用的基准测试中达到了最先进的水平。
Nov, 2022
本文提出一种新的框架 ZETT,基于预训练语言模型,并采用端到端生成式 Transformer 技术,将三元组抽取任务简化为模板填充任务从而具备了零 - shot 学习能力,并能利用语言模型中的隐含知识,实验表明该方法可以在不进行数据增强和流水线系统的情况下超过之前的最优模型,对实体的检测也更为稳健。
Dec, 2022
本文利用三元组网络和基于 transformer 的语言模型,采用信息聚类方式对知识图谱中的实体或关系进行 embedding,提升关系预测准确性。通过在多个基准知识图谱上的 triplet 分类和关系预测任务的表现验证了 GilBERT 方法的优越性。
Nov, 2022
本文提出了一种基于 Mutual Guided Few-shot 学习框架的关系三元组抽取方法,该方法通过实体解码器和关系解码器相互指导,加上原型融合模块,能够在使用少量数据的情况下显著提高抽取准确度,在 FewRel 1.0 和 FewRel 2.0 数据集上表现优异。
Jun, 2023
本文提出了一种基于双向抽取框架的标记关系三元组抽取方法,该方法在联合提取主体和关系的同时从两个方向抽取实体对,并通过共享编码器组件实现特征互补和提升,使用双仿射模型为每个实体对分配所有可能的关系,在多个基准数据集上验证其性能和有效性,此外,实验证明,所提出的双向抽取框架和共享感知学习机制具有很好的适应性,可用于提高其他标记基于方法的性能。
Dec, 2021