高效易解释的实体追踪神经模型
本文探讨了大语言模型在跟踪实体状态和关系变化方面的能力,发现只有预训练于大量代码的 GPT-3.5 模型具有此能力,而使用预训练于文本的较小模型进行微调后也可以完成一定程度的实体追踪。但这种能力不仅取决于模型的大小,大文本库的预训练也不是必要条件。
May, 2023
本文探索基于简单神经方法的阅读理解模型在长期语境处理和记忆显著信息方面的能力,提出了两个扩展方案:增加实体特征和使用多任务跟踪目标进行训练,并在 LAMBADA 数据集上取得了优于当前最先进方法的效果,特别是在难度较高的实体示例中。
Oct, 2018
该研究提出了一种名为 EntityNLM 的新型语言模型,可显式建模实体,动态更新其表示,并在特定的上下文中生成其提及。该模型在语言建模、指代消解和实体预测等多个不同任务中表现出色。
Aug, 2017
提出了一种基于 NLP 和 GPT-3 的领域不可知的自然语言交互框架,可以从自述性的日志文本中提取信息,解决了自我追踪设计空间广阔且追踪主题和数据格式多样化的挑战。研究显示,该方法明显优于基线 QA 模型,为未来 NLP 与 HCI 领域的合作提供了前景。
May, 2022
本文系统地研究了预训练语言模型在故事生成任务中维持实体连贯性和一致性方面的能力,并提出了动态实体记忆的增强方法,旨在使用辅助实体相关性损失来指导读写实体记忆,以提高实体连贯性和一致性,同时还验证了自动评价指标与人工评价的相似度,从而提出的自动评价指标可以作为生成故事质量的良好指标。
Feb, 2022
本文主要研究了最新的自然语言处理技术中,神经网络和语言模型在命名实体识别和关系抽取方面的应用以及它们在训练过程中面临的一些挑战。我们发现,预训练的语言模型对发现未曾见过的命名实体表现良好,但对于未曾见过的关系则有待加强,因此模型的理解能力仍存在提升空间。
Jun, 2022
本文提出了一种实时更新的实体仓库,用于表示对话上下文中已经提到的实体及其关系,并采用端到端建模方法解决了包括标签标注、指代消解、实体链接等多个子任务,同时提供了一个大规模对话语料 Contrack ,以及一种基于神经网络的上下文跟踪方法,并与现有方法进行比较。
Jan, 2022
本研究提出了一种利用细粒度实体类型推断模型生成具备人类可读性,且能够直接用于实体相关任务的实体表示向量的方法,并针对特定领域实体优化表征,通过少量规则增加领域知识以提高性能。
Apr, 2020
本研究探讨了在过程性文本中使用预训练的 transformer 网络跟踪实体的能力,发现通过调整输入结构,可以取得更好的实体跟踪结果,在配方中实现了材料检测以及在科学过程中进行了问答,达到了最先进的结果,但我们的模型仍然主要关注表面上下文线索,没有形成中间实体或进程状态的复杂表示。
Sep, 2019
研究自然语言处理的 NLP 和人工智能领域对实体理解的影响,提出了基于实体概念的方法,并介绍了如何在实体链接任务中使用这种方法。通过核指代文簇难题进行了实验研究,分析了知识库实体集成到文本中的方法并从时间视角分析了实体的演变。
Apr, 2023