基于深度强化学习的提及排序共指消解模型
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文利用强化学习方法,提出一种基于动作的新颖方案用于实体识别的任务,并使用训练集生成实例级别的事件,同时还使用奖励模型获得正确标记完成的实例,从而提高了长实例的内部结构并且结果与竞争性有监督的对照组相当。
Mar, 2017
介绍了一种基于神经网络的查询重构系统,使用强化学习训练神经网络,动作是选择术语以建立重构查询,回报是文档召回率,我们在三个数据集上评估了我们的方法,相对 Recall 方面有 5-20% 的改进。此外,我们提供了一种简单方法来估算模型在特定环境中的保守上限性能,并验证存在很大的改进空间。
Apr, 2017
本文提出了一种针对 NLP 中需要汇总来自远处的同一实体的信息的情况的循环层,该层使用外部系统提取的指代注释连接属于同一簇的实体提及,并将其合并到最先进的阅读理解模型中,从而改善了 Wikihop、LAMBADA 和 bAbi 人工智能任务的性能,并且可在数据稀缺时获得大的收益。
Apr, 2018
本文介绍了一个基于 Transformer 预训练语言模型的简单而有效的代替神经指代消解模型的 baseline,证明合理简化已有模型可以取得与复杂模型相媲美的性能表现。
Jul, 2021
本文提出了一个基于生成模型,引入 resolution mode 变量的无监督排名模型,用于实体的共指消解。该无监督系统在 CoNLL-2012 共享任务的英文数据上,通过 CoNLL 指标得分为 58.44%,超过了 Stanford 确定性系统(Lee et al.,2013)3.01% 的得分。
Mar, 2016
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
本文介绍一种通过深度强化学习的方式,结合空间和时间情境及自然语言先验知识,移动和重塑边界框以定位描述中的物体,从而实现自然语言目标检索任务。作者实验表明,该方法在多个数据集上均优于现有算法,特别在 ReferItGame 数据集上,该方法相比 GroundeR 和 SCRC 的准确率分别提高了 7.67%和 18.25%。
Mar, 2017