群等变独立自注意力网络用于视觉
本文提出了 LieTransformer,这是一种由 LieSelfAttention 层组成的网络结构,可以处理不同类型的 Lie 群及其离散子群的不变性,并通过实验表现出一定的竞争力,可以在点云形状计数、分子属性回归、粒子在哈密顿动力学下的轨迹建模等方面提升数据效率。
Dec, 2020
本研究论文探讨卷积神经网络在对称群中的应用,提出了群等变神经网络的概念和架构,以及使用多种层和滤波器的方法,为对称群的表示和胶囊的细节做出了数学分析。
Jan, 2023
本文介绍了一种利用新型有效的位置编码操作符来设计 Group Equivariant Vision Transformer(GE-ViT)模型来解决 Vision Transformer(ViT)模型中的内在等变性学习问题,通过实验在标准基准数据集上得出 GE-ViT 模型比不等变自注意力网络性能更好的结论。
Jun, 2023
本文针对深度学习的无监督学习,将群不变和群等变表示学习扩展到了该领域。我们提出了一种基于编码器 - 解码器框架的通用学习策略,其中潜在表示被分为不变项和等变群作用项。在利用预测适当的群作用来对齐输入和输出姿势以解决重建任务时,网络可以学习将数据编码和解码为群不变表示。我们导出依变编码器的必要条件,并针对旋转,平移和置换明确描述了我们的构造。我们在不同网络架构下使用不同数据类型进行各种实验,测试了我们方法的有效性和鲁棒性。
Feb, 2022
本文提出改进的归一化自注意力网络,并针对 Transformer 处理对象几何结构的局限性,引入了一种几何感知自注意力机制,将两个模型结合应用于图像字幕任务并在 MS-COCO 数据集上取得了优异实验结果,同时在视频字幕,机器翻译和视觉问答等任务上也展现了较强的通用性。
Mar, 2020
本研究提出了一种新的共同关注等变神经网络,它不仅能够保留输入的结构信息,而且能够注意到数据中同时出现的变换,并将其泛化到由多个对称组成的群上,实现更好的目标识别效果。
Nov, 2019
本文提出了一种高斯加权自注意力 Transformer 神经网络 (T-GSA),通过自注意力机制的加权距离缩减,实现了显著的语音增强性能改进,在长程依赖任务中实现了并行化计算。
Oct, 2019
通过提出一种几何感知注意机制 (Geometric Transform Attention, GTA) 来对几何结构进行编码,改进了基于 Transformer 的多视角合成模型的学习效率和性能,无需额外学习参数且计算开销较小。
Oct, 2023