因果 Transformer: 时间因果发现的可解释 Transformer
Caformer 是一种从因果性角度进行时间序列分析的新框架,该框架包括动态学习器、环境学习器和依赖关系学习器,能够有效地捕捉跨维度和跨时间的依赖关系,并解决环境因素引起的伪相关问题。该方法在长期和短期预测、补全、分类和异常检测等五个主流时间序列分析任务中表现出一致的最先进性能和合适的解释性。
Mar, 2024
论文提出了一个新的 Transformer 模型 AgentFormer,该模型可以联合模拟时间和社交两个维度,用于预测多智能体行为,同时考虑了多智能体的影响以及不确定性。该模型具有良好的性能,并在公共数据集上取得了 state-of-the-art 的结果。
Mar, 2021
本文提出了一种基于 Transformer 的因果模型,通过特定设计的模型和训练方法,能够准确地对复杂、长期相关和混淆因素进行因果推理并估算出时间序列的反事实结果。
Apr, 2022
本文提出了一种名为 ASFormer 的高效 Transformer 模型,通过加入局部连接归纳先验、应用预定的分层表示模式和精心设计的解码器来解决应用 Transformer 模型于动作分割任务时遇到的问题,并在三个公共数据集上进行了广泛实验。
Oct, 2021
Causal Pretraining explores supervised learning to discover causal relationships from time series data, demonstrating that performance increases with data and model size and suggesting the potential for a foundation model for causal discovery.
Feb, 2024
本研究介绍了一种基于图结构的序列感知增强变压器模型 SageFormer,用于有效地捕捉和建模系列之间的依赖关系,并通过真实世界和合成数据集的广泛实验展示其优越性。
Jul, 2023
介绍了一种名为 BayesFormer 的基于 Bayesian theory 设计的 Transformer 模型,该模型利用变分推断中的 dropout 扩展到 Transformer-based architectures,通过多种实验在自然语言处理、机器翻译、长序列理解和主动学习等领域展现出了卓越的性能。
Jun, 2022
本文介绍了基于 transformer 的 NLP 架构,该架构可以联合提取包括语言描述、定性因果关系、约束限定词、词义在内的知识图谱,以及说明其在真实世界中的准确性和实用性。
Feb, 2022
ContiFormer 是一种扩展了 Transformer 关系建模到连续时间领域的模型,将 Neural ODEs 的连续动态建模能力与 Transformer 的注意机制相结合,具有优越的建模能力和对于不规则时间序列数据的预测性能。
Feb, 2024