作者之团:从社交网络上下文中消除姓名歧义
本文提出了一种基于概率图模型的联合实体消岐方法,充分利用了文档级别实体共现和上下文信息,避免昂贵的训练过程和专业特征工程,通过节点置信传递来做近似推断,能够在实时场景中快速高效地工作,对多种基准数据集进行了准确性测试,表现与现有先进方法相当甚至更好。
Sep, 2015
本文试图通过利用微博中的社交网络结构,将作者、提及和实体编码成一个连续向量空间,并将这些向量纳入神经结构预测模型中,以捕捉实体链接任务中固有的结构约束。与现有的最新技术相比,这些设计决策在基准数据集上的F1值提高了1%-5%。
Sep, 2016
我们提出了一种新的树形目标函数MINTREE,并引入了一种新的算法Pair-Linking来解决实体消歧的问题,实验证明,与现有的算法相比,我们的方法不仅更准确,而且速度惊人地快。
Feb, 2018
该研究提出了一种新型神经模型“NCEL”,采用图卷积网络来整合本地上下文特征和全局连贯信息,以进行集体实体链接,并引入了注意力机制来提高模型对数据噪声的鲁棒性和避免过拟合和领域偏见的影响,实验结果表明该方法是有效而高效的。
Nov, 2018
提出了一种基于最近邻法的实体链接方法,该方法通过建立一个上下文相关的提及编码器,学习将相似的提及放置在比不同实体的提及更接近的向量空间中,从而利用所有实体的提及作为“类原型”,通过对训练集中标记的实体的提及集合进行检索,并应用最近的提及邻居实体标签进行推理。通过对维基百科超链接的提及对的大型多语言语料库进行训练,该模型在一个包含7亿个提及的索引上进行最近邻推理。该方法训练简单,预测可解释性更强,并在两个多语言实体链接基准测试中优于所有其他现有方法。
Jun, 2021
本文提出了一种基于最小有向树的新型训练和推断程序,从而完全利用提及之间的亲和关系来进行实体链接和发现,并在 Zero-Shot Entity Linking 数据集和 MedMentions 数据集中展示出显著的性能提升。
Sep, 2021
通过使用轻量级易扩展的启发式方法,我们考虑如何在新闻语料库中的Quotebank上进行个人实体消歧,其表现优于最先进的无监督和零-shot方法,并成为无监督和零-shot实体链接的强基线。
Jul, 2022
该研究提出了一种新的实体链接方法,利用Transformers构建密集表示并考虑了NIL实体情况,通过产生相应的提及聚类同时保持良好的实体链接表现,该方法以NILK数据集为基础进行了评估并在维基百科列表中的实体链接任务中进行了应用和分析。
Mar, 2023