通过提出一种新颖的 NER 框架,名为 ToNER,基于生成模型,利用实体类型的优势促进 NER 任务,并通过在生成模型的编码器上追加多个二分类任务、增加辅助任务和进行广泛实验验证,证明了我们所提出的面向实体类型的 ToNER 策略的有效性。
Apr, 2024
该论文介绍了一种以实体为中心的神经体系结构,用于生成数据到文本的任务,并通过在 RotoWire 基准和棒球领域的新数据集上进行的实验,表明该模型在自动和人类评估上优于竞争基线。
Jun, 2019
通过预训练语言模型和课程学习的方法,我们提出了一种新的生成式实体类型标注(GET)范例,其表现优于现有的实体类型标注模型。
Oct, 2022
提出一种基于 BERT 预训练和实体相似度分数的实体链接模型,通过注入潜在的类型信息到实体嵌入中,并结合一种基于 BERT 的实体相似度分数,显著提高了实体链接模型的性能。
Jan, 2020
本文提出了一种基于实体类型信息构建判别式语言模型的新方法,并提供了两个基于食谱和 Java 编程代码的基准数据集来评估所提出的模型。实验结果表明,相比现有的语言模型,我们的模型在食谱生成和代码生成方面的困惑度分别达到 52.2%和 22.06%的显著提高。
May, 2018
该研究论文介绍了一种利用基于类型的问题通过文本预训练在语言模型中灌输细粒度类型知识的方法,并利用知识库文档和知识图谱创建 WikiWiki 数据集来评估性能。该方法在零 - shot 对话状态跟踪基准测试中取得了最先进的表现,可以准确地推断维基百科文章中的实体类型,并能够发现人工评判认为有用的新类型。
Apr, 2022
该研究提出了一种名为 EntityNLM 的新型语言模型,可显式建模实体,动态更新其表示,并在特定的上下文中生成其提及。该模型在语言建模、指代消解和实体预测等多个不同任务中表现出色。
Aug, 2017
研究了在科学和工程领域中基于种子引导的细粒度实体类型的任务,该任务利用名称和少量种子实体作为唯一的监督,旨在将新的实体提及分类为已知和未知类型,并提出了 SEType 方法来解决该问题。
Jan, 2024
该论文介绍了一种可以构建鲁棒实体链接模型的方法,该方法将注意力放在建立细粒度实体属性的模型上,具有更好的泛化性能,使用维基百科类别的大型库存来远程标记数据并训练实体类型模型,使用软类型预测将提及链接到最相似的候选实体上。
Sep, 2019
通过填充空白的任务来学习来自文本上下文中提及的实体的上下文无关表示,结果展示了 Neural 模型的大规模训练可以学习到高质量的实体表示,并在四个领域展示了成功的结果。