图上的注意力流建模
该论文通过使用时态点过程和变分自编码器提出了一种无需人工边缘指定的模型,学习推断节点间的时间关注力,从而具有更大的灵活性和更好的性能,用于动态链接预测任务。
Sep, 2019
本文介绍了一种新的框架,利用因果关系工具为学习注意力函数的过程提供强有力的监督信号,可用于任何基本的基于注意力的图神经网络,并在广泛的基准数据集上进行了验证。
May, 2023
本研究关注于图神经网络中节点的注意力机制及其效果影响,特别地,对比研究了图同构网络,在设计出一系列简单的图推理任务后,研究发现在典型环境下注意力的作用微乎其微,甚至有害作用,但在某些条件下可以大幅度提高分类性能达到 60% 以上。为了实现这些条件,通常需要在初始化或监督训练注意力方面下功夫,并提出了一种弱监督训练注意力的方法,实现效果与有监督学习基本一致,比无监督学习在多个数据集上都要好。
May, 2019
本研究提出 Causal Attention Learning (CAL) 策略,利用因果推断来处理图分类过程中存在的 confounding effect of shortcuts,该方法借助注意力模块估计因果特征和快捷特征,并对因果理论进行参数化背门调整。实验结果表明,CAL 策略在合成和真实数据集上均取得了良好的效果。
Dec, 2021
本文提出 Attention with Reasoning capability (AiR) 框架,使用注意力机制来理解和改善导致任务结果的过程,并通过一系列原子推理操作定义了一个评估指标来量化考虑推理过程的注意力。作者收集了人类眼动和答案正确性数据,分析了各种机器和人类注意力在推理能力和任务绩效方面的影响,并提出了一种监督方法,共同逐步优化注意力、推理和任务绩效,以便模型通过遵循推理过程来查看感兴趣的区域。最后,作者证明了所提出的框架在分析和建模注意力方面有更好的推理能力和任务绩效。
Jul, 2020
该研究通过神经算法推理对神经网络进行研究,旨在开发能够从经典算法中进行学习的神经网络。主要挑战是开发出表现足够强大的图神经网络,能够预测给定的算法输出,并在未知数据上具备良好的泛化能力。在此工作中,我们介绍了一种新的图神经网络层,称为 Triplet Edge Attention (TEA),它是一种边感知的图注意力层。我们通过精确计算边的潜在性能和使用基于边的注意力聚合多个三元组消息的方式来实现我们的算法。我们在 CLRS 基准测试中对 TEA 层进行了实证验证,并取得了平均 5% 的改进。特别是,在与现有模型相比,我们的方法在字符串算法中取得了 30% 的改进。
Dec, 2023
本文提出了一种利用有向无环图产生因果知识,辅助人工智能完成目标驱动任务的方法,并通过实验证明该方法可以有效地推广到在先前未见的具有新的因果结构的环境下完成新任务。
Oct, 2019