文本时间信息提取的时间推理调查(扩展摘要)
研究表明,利用时间信息可以对基于证据的事实检验的认证过程起到积极的正向影响,通过对构建共享时间轴的发布日期和时间表达式进行基础建设可以建立索赔和证据之间的时间关系,从而提供给基于循环神经网络(RNN)和转换器(Transformer)的分类器时间信息以进行认证。
Feb, 2023
时间常识推理是指理解短语、动作和事件的典型时间背景,并在需要此类知识的问题上使用它进行推理的能力。本文概述了在时间常识推理领域的研究,特别关注通过多种增强和它们在日益增多的数据集上的评估来提高语言模型性能。然而,这些增强模型在处理时间常识属性的推理任务上仍然难以接近人类表现。我们进一步强调在转换器中存在的浅层推理情况下,对研究结果进行谨慎解释以防过度承诺评估结果,可以通过适当准备数据集和合适的评估指标来实现。
Jul, 2023
本文提出了解释性时间推理的首个任务,即通过对多个事件进行多步骤的时间推理和对未来时间戳的预测,预测事件在未来时间戳上的发生,并提供清晰的解释。我们基于多源指导调整数据集和知识图谱生成策略,提出了第一个支持解释性时间推理的开源 LLM 系列 TimeLlaMA,该方法在时间预测和解释方面取得了最先进的性能。
Oct, 2023
本文提出一个集成时间和因果关系提取的框架,在该框架中,通过利用因果关系中事件先行的假设,将两个提取组件整合成一个系统,使用词嵌入和训练数据扩展等方法来改善关系提取系统,并介绍了将时间信息处理应用于其他语言的适应性尝试。
Apr, 2016
本研究提出了一种新的时间信息提取模式,通过直接从文本预测事件的起止点来构建时间线,该模式实现了线性复杂度,利用 TimeML 风格的注释训练新的模型,结果表现出很好的效果。
Aug, 2018
介绍了一种新的挑战,即隐式事件的研究,已有的方法侧重于显式事件;提出了一种基于神经符号学的时态推理模型 SYMTIME,并使用大规模文本的远程监督信号和时态规则结合开始时间和持续时间来推断结束时间,此方法在 TRACIE 的表现优于强基线系统 5%,在零先验知识的训练中性能提高 11%;同时,也能够广泛应用于其他时态推理任务,并且在显式事件基准测试 MATRES 上提高了 1%-9%。
Oct, 2020
大型语言模型(LLMs)理解世界的关键是对时间进行推理。我们通过系统研究 38 个时间推理任务,提出了能够处理各种时间推理任务的通用框架,其中使用数学数据集为时间推理奠定了坚实基础,并通过自我批评的时间优化方法,提升了模型的时间推理能力。最终,我们开发了 Timo 模型,在 7B 和 13B 规模上在时间推理方面表现出色,并在平均准确度上超过了同类 LLMs 的 10.0 和 7.6,实现了新的最先进性能。通过广泛的实验证明了我们的框架的有效性和在不同时间任务上的泛化能力。
Jun, 2024
本文首次探讨了预训练语言模型在对话中的时间推理能力,并通过引入新任务 TIMEDIAL 和多项选择 cloze 测试集验证了模型的表现,同时指出模型在考虑对话上下文以及模型对于上下文中时间模式依赖性的主观推断方面存在差距,为未来时间概念建模和上下文推理方面的研究提出建议。
Jun, 2021
通过应用现有的时间信息提取系统构建事件、时间和时间关系的时间图,然后研究将这些图融入 Transformer 模型的不同方法,实验结果表明,我们提出的融合时间图的方法显著提高了 Transformer 模型的时间推理能力,在不进行微调的情况下,我们的方法优于各种基于图卷积的方法,在 SituatedQA 和 TimeQA 的三个分割上取得了新的最佳性能。
Oct, 2023
本文介绍了一个全面的测试数据 empreason 来评估大语言模型的时间推理能力,包括三个时间推理水平的问题,并提出了一种基于时间跨度提取和时间敏感的强化学习的新型学习框架来提高其时间推理能力,并证明了其有效性。
Jun, 2023