提升关系抽取的敌对视角
本文通过三种不同的方案对低资源情况下关系抽取系统进行了全面研究,并创建了包含 8 个 RE 数据集的基准,示范了不同的方法与结合的影响,结果表明虽然基于提示的调整有助于低资源 RE,但在从跨句子上下文中提取多个关系三元组时仍有很大改善潜力,数据增强与自我训练可以较好地充实现有基准,并可带来很多性能提升,然而自我训练并不能始终实现低资源关系抽取的进步。
Oct, 2022
本文介绍了一种名为对抗训练的正则化方法,利用该方法可以通过在训练数据中添加微小扰动,提高神经网络方法的稳健性,并演示如何将其应用于实体识别和关系提取等任务,以提高不同上下文(如新闻、生物医学和房地产数据)和不同语言(如英语和荷兰语)的数据集的效果。
Aug, 2018
该论文提出了一种简单而有效的文档级关系抽取方法,可结合 BiLSTM 使用少量证据句子识别给定实体对之间的关系,并在基准数据集上取得了优异的性能,甚至优于基于图神经网络的方法。
Jun, 2021
本文针对文档级关系抽取领域中广泛存在的一种强假设,即所有命名实体都已经完美地本地化、标准化和分类,通过构造四种类型的实体提及攻击,对典型的文档级关系提取模型进行行为探测,发现大多数当前的文档级关系提取模型易受实体提及攻击的影响,难以在真实世界的自然语言处理应用中部署,在未来的研究中建议停止简化问题设置,并在真实环境下建模文档级关系提取。
Jun, 2023
本论文提出基于实体的文档上下文过滤来构建输入并基于跨路径实体关系注意力的交叉文档关系提取模型,与现有方法比较,在 CodRED 数据集上取得至少 10% 的 F1 值的提升,从而展示其在跨文档关系提取中的有效性。
Oct, 2022
该文介绍了基于句子的关系抽取问题,着重探讨了影响现有关系抽取模型性能的实体表示和噪声标签问题,并利用预训练语言模型提出了改进的基线模型,在 TACRED 数据集上取得了 F1 分数 74.6%,在 Re-TACRED 数据集上取得了 F1 分数 91.1%,证明预训练语言模型在该任务上具有高性能。
Feb, 2021
使用专家引导的启发式方法构建了一个高质量的 CoNLL 2003 测试数据集,通过基于此集合的对抗性扰动来评估 NER 模型的泛化能力,并且通过使用混合数据训练技术来显著提高在挑战集上的性能以及提高了域外泛化能力。
Mar, 2022
本文探讨了利用 GPT-3 和 Flan-T5 等大型语言模型来进行关系提取(RE)的问题,通过将关系线性化生成目标字符串的方法进行了序列到序列的任务处理,通过人工评估的方式,在不同程度的监督下评估了它们在标准 RE 任务中的表现,发现通过 GPT-3 进行的少量提示与现有完全监督模型大致相当,而使用 Chain-of-Thought 风格的解释进一步监督和微调后,该模型产生了最优结果。
May, 2023
本文介绍了第一个人工注释的基于对话的关系抽取(RE)数据集 DialogRE,用于支持在对话中预测两个参数之间的关系,尤其是涉及多个句子的跨句子 RE 任务,并基于分析指出演讲者相关信息在该任务中发挥了关键作用。在提出一个新的评估指标以评估在会话环境中进行 RE 方法的性能之后,本文研究了几种常用的 RE 方法在 DialogRE 数据集上的表现,并通过实验证明,最佳表现模型的扩展可以在标准和会话环境的评估设置中都取得收益。
Apr, 2020
本研究综述了关系抽取领域深度学习技术的现状,涵盖资源、分类、挑战和未来方向等方面,有望促进研究者共同探索真实生活中关系抽取系统的挑战。
Jun, 2023