CopyMTL: 多任务学习下实体和关系的联合抽取的复制机制
本文探讨了利用 GPT-3 和 Flan-T5 等大型语言模型来进行关系提取(RE)的问题,通过将关系线性化生成目标字符串的方法进行了序列到序列的任务处理,通过人工评估的方式,在不同程度的监督下评估了它们在标准 RE 任务中的表现,发现通过 GPT-3 进行的少量提示与现有完全监督模型大致相当,而使用 Chain-of-Thought 风格的解释进一步监督和微调后,该模型产生了最优结果。
May, 2023
本文介绍了一种多任务学习框架,其中任务之间存在双向记忆依赖,并能更准确地进行文档级别的实体和关系抽取,实证研究表明该方法优于现有方法,并在 BioCreative V CDR 语料库上取得了最新成果。
Jul, 2023
本研究介绍了 GPT-RE,这是一种解决大型语言模型在关系提取中局限性的方法,包括任务特定实体表现的使用和黄金标签引导推理逻辑的使用。该方法在四个数据集上的实验结果表明其超过了 GPT-3 基线并且在 Semeval 和 SciERC 数据集上实现了 SOTA 表现。
May, 2023
本文提出了一个联合模型,用于从文件中提取实体级别的关系。该模型在实体级别上操作,采用多任务方法,并通过多实例学习以及多级表示技术聚集相关信号,旨在提取文档中的关系。研究结果表明,该模型在 DocRED 数据集上获得了最优的实体级别关系提取结果。同时,实验结果表明,与特定任务学习相比,联合方法在参数共享和训练步骤方面更加高效。
Feb, 2021
本文提出了一种基于生成式框架的文档级实体提取方法,该方法能够高效地捕获跨多实体的相关信息,使用了一种名为 TopK Copy 的交叉注意力引导复制机制,实验结果表明此方法达到了科技论文数据集上的新的最优结果。
Sep, 2021
本文提出了一种基于序列到序列模型的方法 seq2rel,使用实体推荐技术,可以替代传统的基于流水线任务的文档级关系抽取方法来同时完成抽取实体和关系的子任务,通过在几个受欢迎的生物医学数据集上的实验,本方法表现出了比现有流水线方法更优秀的性能,我们还展示了端到端方法超越流水线方法的结果。
Apr, 2022
本文提出一种用于实体抽取和关系提取的直接集合预测方法,通过应用 transformers 和非自回归并行解码的网络,以及基于二分图匹配的基于集合的损失函数,能更好地完成实体抽取和关系提取任务。
Nov, 2020
采用多任务学习方法解决实体和关系联合提取问题,提出了一种称为循环交互网络的多任务学习模型,能够动态地学习交互来有效地模拟分类的任务特征,并在两个真实数据集上进行实证研究验证了该模型的优越性。
May, 2020
大规模嘈杂训练数据中的文档级关系抽取问题是一个具有挑战性的领域,本研究提出了一种集成可训练内存模块(Token Turing Machine)和嘈杂鲁棒性损失函数的新方法 TTM-RE,通过在 ReDocRED 基准数据集上进行广泛实验,实现了最先进的性能表现(F1 得分提高了 3% 以上),并在其他领域(如生物医学领域的 ChemDisGene 数据集)和高度未标记的情境下展现了 TTM-RE 的优越性.
Jun, 2024
本文提出了一种新颖的神经架构,利用表格结构和二维卷积技术进行本地依赖特征池化,从而改善了以往的最佳性能,在不需要全局优化的前提下实现了端对端关系提取任务(包括命名实体识别和关系抽取),相较于之前最好的结果提高了约 1%的 F1 分数,并且训练和测试时间快 7 至 10 倍。
May, 2019