上下文化时间图生成的神经语言建模
我们提出了一种新的基于文本的时间推理模型 TempGraph-LLM,通过将上下文翻译成时间图,教导大型语言模型 (LLMs) 学习时间概念。我们证明了在其他任务上的预训练对 LLMs 的效益,并通过思路链的引导和特殊数据增强引导 LLMs 进行符号推理,观察到符号推理带来更一致可靠的结果。
Jan, 2024
本文基于 BERT 开发了几种 BERT-based 时间依赖句法分析器,表明 BERT 显著提高了时间依赖分析的性能。并对于深度上下文化语言模型有哪些帮助及不足进行了详细分析。
Apr, 2020
通过应用现有的时间信息提取系统构建事件、时间和时间关系的时间图,然后研究将这些图融入 Transformer 模型的不同方法,实验结果表明,我们提出的融合时间图的方法显著提高了 Transformer 模型的时间推理能力,在不进行微调的情况下,我们的方法优于各种基于图卷积的方法,在 SituatedQA 和 TimeQA 的三个分割上取得了新的最佳性能。
Oct, 2023
本文介绍了一种连续预训练的方法,通过自监督学习目标,强化了预训练模型对事件和时间信息的关注,提高了事件时间推理的能力,在五个任务上提高了模型的微调性能,并在大多数下游任务中获得了新的最先进表现。
Dec, 2020
该研究针对预训练语言模型生成结构化输出能力进行分析,提出以节点和边为编辑操作的基本图形干扰方案,有效提升对解释图形的语义和结构精度,并将其应用于对比学习建模中。
Apr, 2022
大型语言模型对于时间信息的推理和保留能力仍然有限,本论文通过在一个大规模时间数据集(TempUN)上实验,揭示了在时间保留和推理能力方面存在的显著局限。有趣的是,闭源模型更频繁地显示出知识缺口,可能表明在不确定性意识和错误响应之间存在折衷。此外,探索各种微调方法并没有带来显著的性能提升。
Feb, 2024
本文提出了一种基于概率领域知识构建分布式约束的框架,并且通过 Lagrangian Relaxation 解决约束的推理问题,用于端到端的事件时间关系提取任务,实验结果显示我们的框架能够在新闻和临床领域的两个广泛使用的数据集上显著地提高基线的神经网络模型。
Sep, 2020
本文提出了解释性时间推理的首个任务,即通过对多个事件进行多步骤的时间推理和对未来时间戳的预测,预测事件在未来时间戳上的发生,并提供清晰的解释。我们基于多源指导调整数据集和知识图谱生成策略,提出了第一个支持解释性时间推理的开源 LLM 系列 TimeLlaMA,该方法在时间预测和解释方面取得了最先进的性能。
Oct, 2023
本研究提出了一种新的神经系统,通过采用语境化单词嵌入,一个时间常识知识库的连体编码器和整数线性规划的全局推理,在 MATRES 数据集上进行训练,取得了一个基准数据集上绝对精度提高约 10%(25%的误差降低)的结果。我们认为,这种新方法可以为未来研究提供一个强大的基准线。
Sep, 2019