超细粒度实体类型化
本文提出了使用 BERT 遮盖语言模型 (Masked Language Model) 获得超细粒度实体类型的训练数据,并构建一个输入使其产生预测上下文相关的超类词表中的概念,其可用作类型标签。在实验结果中表明,通过这些自动生成的标签,超细粒度实体类型模型的性能大大提高。同时,我们还展示了这种方法可以用于改进传统的细粒度实体类型。
Jun, 2021
LITE is a natural language inference-based approach for ultra-fine entity typing, addressing the data scarcity issue and achieving state-of-the-art performance and strong generalizability.
Feb, 2022
通过使用超细粒度实体类型数据训练一个具有极广泛类型覆盖的实体类型模型,然后在新设计的细粒度实体类型模式下,通过少量手动标注的样本对先前训练的模型进行微调,我们提出了一种新的方法,能够避免在新类型架构时创建远距离标记数据的需求,并在低样本学习设置下实现出色的细粒度实体类型识别性能。
Dec, 2023
本文提出了一种无监督的零样本实体类型的方法,该方法可以弹性地识别新定义的类型,并利用 FREEBASE 的布尔函数进行自我推理。我们在包括生物领域的各种数据集上评估了该系统,并证明了它在超出领域的数据集上优于监督学习方法与其他零样本细粒度关键词方法。
Jul, 2019
介绍了 TypeNet 数据集,该数据集由 1941 个类型组成,通过人工注释从 1081 个 Freebase 类型映射到 WordNet。本文还探讨了几种与先进系统可比的模型,以及在标准提及类型损失的基础上结合层次结构损失的技术,是未来研究的第一步。
Nov, 2017
该论文介绍了一种可以构建鲁棒实体链接模型的方法,该方法将注意力放在建立细粒度实体属性的模型上,具有更好的泛化性能,使用维基百科类别的大型库存来远程标记数据并训练实体类型模型,使用软类型预测将提及链接到最相似的候选实体上。
Sep, 2019
本文提出了一种简单的技术,使用预训练的标签嵌入将标签聚类形成语义领域,并将这些领域作为附加类型来改进现有的 UFET 模型的性能。同时作者还使用标签聚类作为后处理技术,进一步提高了模型性能。
May, 2023
本文提出了一种无监督实体类型框架,通过结合符号和分布语义,使用语言结构学习通用的嵌入,并开发了一种新型的联合层次聚类和链接算法来对所有提及进行类型。该框架不依赖于任何注释数据、预定义的打字架构或手工特征,因此可以快速适应新的领域、体裁和语言。同时,它具有很大的灵活性,可以包括语言结构等来改进特定上下文表示。
Mar, 2016
通过实体链接,结合上下文信息和查询结果,我们提出了一种深度神经模型,用于精细化实体类型分类。在两个数据集上的实验结果表明,相对当前最先进水平,我们的方法分别取得了超过 5%的绝对严格准确度提高。
Sep, 2019
本文提出了一个包含 4800 个手工标注的中文语料库,其用于细粒度实体分类。在实验中,我们展示了一些典型细粒度实体分类模型在我们的数据集上的表现,并显示了通过跨语言迁移学习提高中文细粒度实体分类的可能性。
Apr, 2020