自监督命名实体消歧追踪
本篇论文提出了一种新型的嵌入方法,用于解决命名实体消歧问题,该方法使用了基于知识库的图模型和锚点上下文模型来映射词和实体到同一连续向量空间,并结合标准 NED 特征,实现了93.1%的 CoNLL 数据集和85.2%的 TAC 2010 数据集的最新技术水平。
Jan, 2016
本文介绍“CoType”,一个数据驱动的文本分割算法和一种冠以知识库标签的实体及关系识别方法。实验表明,其在不同领域具有25%的F1得分提高。
Oct, 2016
本文主要介绍了一种基于神经模型和样本采集技术的 Named Entity Disambiguation 方法,使用 WikilinksNED 数据集进行训练与测试,并且在 embedding 初始化方面做了一些优化,取得显著的性能提升。
Jun, 2017
该论文介绍了一种可以构建鲁棒实体链接模型的方法,该方法将注意力放在建立细粒度实体属性的模型上,具有更好的泛化性能,使用维基百科类别的大型库存来远程标记数据并训练实体类型模型,使用软类型预测将提及链接到最相似的候选实体上。
Sep, 2019
本文研究实体链接在零样本链接中的应用,介绍了一种灵活的方法来将实体从任意的知识库中转化为平面字符串,与零样本链接模型配合使用,通过两种规则方法的改进,实现了模型的精度提升,实验结果表明我们的模型优于基准模型,并且本文的方法也可以无缝地结合多个训练数据集。
Oct, 2020
本文提出了使用领域本体知识进行自我监督的知识增强自监督方法(KRISS)来解决由于实体多样性和模糊性带来的实体链接问题,并实现了无需使用任何标注信息的万能实体链接器KRISSBERT,将最先进的性能提高了20个百分点以上
Dec, 2021
提出了一种可在符号知识库中通过推理以完全可微的方式连接实体的实体消歧模型,该模型可以使用所有KB信息,超过六个著名实体消歧数据集中的现有模型,并在基于不常见和模糊实体的ShadowLink数据集中提高12.7 F1。
Jul, 2022
本文解决了 Entity Disambiguation 方向在仅仅使用 Wikipedia 标题作为文本表示的情况下,标题信息不足或相互区分度不够的局限性,并探讨了更加丰富的文本表达方式如何解决这一问题。作者认为,相比其他方法,采用 extractive formulations 和更具表达力的文本表示策略可以使模型在处理实体消歧任务上发挥更好的性能,从而在几个标准任务上取得了前沿的效果。
Oct, 2022
本研究发现,在现有的关系抽取标准基准数据集中,数据集中的实体注释存在大量错误的情况,实体命名多样性较低,并且易于从实体名字的快捷方式到基本事实关系。为此,我们提出了一个新的具有挑战性的关系抽取数据集EntRED,提高了实体多样性,并通过引入基于因果推理(CI)的端到端实体替换管道ERIC。我们将ERIC应用于TACRED以生成EntRED。实验表明,即使针对强关系模型,其性能在EntRED上也会显着下降,该模型仅仅记忆实体名字的模式而不是从文本上下文推理。
May, 2023