ECONET: 用于事件时间推理的有效连续预训练语言模型
本文首次探讨了预训练语言模型在对话中的时间推理能力,并通过引入新任务 TIMEDIAL 和多项选择 cloze 测试集验证了模型的表现,同时指出模型在考虑对话上下文以及模型对于上下文中时间模式依赖性的主观推断方面存在差距,为未来时间概念建模和上下文推理方面的研究提出建议。
Jun, 2021
使用大规模预训练语言模型自动产生基于事件级别的时间图的第一项研究,通过使用现有的信息提取 / 自然语言处理工具自动生成大量文档 - 图对,并将上下文化图的产生问题作为序列到序列映射任务提出创新方案,我们的实验表明,我们的方法在生成结构和语义有效的图方面非常有效。
Oct, 2020
本文提出概念感知的语言模型 (CALM),通过增强自监督学习任务以从文本中学习常识。CALM 可以在不依赖外部知识图谱的情况下将更多的常识知识整合到预先训练的文本转文本变压器的参数中,从而在自然语言理解和生成任务中实现更好的性能。
Oct, 2020
我们提出了一种新的基于文本的时间推理模型 TempGraph-LLM,通过将上下文翻译成时间图,教导大型语言模型 (LLMs) 学习时间概念。我们证明了在其他任务上的预训练对 LLMs 的效益,并通过思路链的引导和特殊数据增强引导 LLMs 进行符号推理,观察到符号推理带来更一致可靠的结果。
Jan, 2024
本研究通过使用不同的持续学习算法对预先训练的语言模型进行不断的增量预训练,并通过评估模型对新数据的适应能力以及对早期数据所学知识的保留能力来研究生命周期语言模型预训练挑战,结果表明采用基于蒸馏的方法可以最有效地保留早期领域的下游任务性能。这些算法还可以提高知识转移能力,使模型在最新数据上实现更好的下游性能,并在由于时间而存在训练和评估之间的分布差异时,提高时态的泛化能力。
Oct, 2021
本文提出了解释性时间推理的首个任务,即通过对多个事件进行多步骤的时间推理和对未来时间戳的预测,预测事件在未来时间戳上的发生,并提供清晰的解释。我们基于多源指导调整数据集和知识图谱生成策略,提出了第一个支持解释性时间推理的开源 LLM 系列 TimeLlaMA,该方法在时间预测和解释方面取得了最先进的性能。
Oct, 2023
我们提出了一种名为 TEMT 的新框架,利用预训练语言模型(PLMs)来增强文本的时间性知识图谱完成。TEMT 利用存储在 PLM 参数中的知识,能够产生丰富的事实语义表示,并且对以前未见过的实体进行推广。TEMT 将 KG 中的文本和时间信息分别处理,并将它们融合以得到事实的可信度得分。与以前的方法不同,TEMT 有效捕获不同时间点之间的依赖关系,并能对未见实体进行预测。实验结果表明,TEMT 与现有技术相媲美。
Sep, 2023
本研究探讨了在自然语言处理领域中理解文本的时间背景的方法,并介绍了一种新型语言模型 BiTimeBERT 2.0,该模型通过预训练在一个时间新闻文章集合上,利用三种创新的预训练目标以有效地获得时间感知的语言表示,从而在与时间相关的任务中实现改进的性能。实验结果显示,BiTimeBERT 2.0 在多种依赖时间的下游自然语言处理任务和应用中显著优于 BERT 和其他现有的预训练模型。
Jun, 2024
本文提出了一种预训练的名为 ClarET 的通用事件感知上下文到事件转换器,以解决许多事件中心推理任务中上下文关联事件的生成问题。该方法具有很强的一般适用性和有效性。
Mar, 2022
大型语言模型对于时间信息的推理和保留能力仍然有限,本论文通过在一个大规模时间数据集(TempUN)上实验,揭示了在时间保留和推理能力方面存在的显著局限。有趣的是,闭源模型更频繁地显示出知识缺口,可能表明在不确定性意识和错误响应之间存在折衷。此外,探索各种微调方法并没有带来显著的性能提升。
Feb, 2024