关键词transformer-based self-attention
搜索结果 - 3
- 探究 (自我) 关注机制在认知与计算机视觉架构中的作用的博士论文
本文研究了复杂的推理任务中注意力和记忆的作用,分析了 Transformer-based self-attention 模型,并通过增加记忆单元的方式对其进行了扩展,提出了一种结合了注意力和记忆的认知架构 GAMR,并在视觉推理测试中的表现 - 机器人操作中基于深度模仿学习的记忆驱动注视预测
本文提出了一种使用基于 Transformer 的自注意力结构实现眼神预测,以实现具有记忆的机器人操作任务的算法。通过将机器人视觉输入的连续序列作为输入,该算法能够通过使用传统的深度模仿学习方法并结合眼动预测来实现多物体操作任务。实验结果表 - 利用全局注意力表示图神经网络的长距离上下文
本篇论文提出了一种名为 GraphTrans 的算法,它将 Transformer 自注意力模块和标准的 GNN 模块相结合,并应用置换不变性的 Transformer 模块,从而解决了当前方法在表示长程依赖关系方面的不足。该算法在多个图分