自动使用梯度学习层间等变性
这篇研究论文介绍了一种从数据学习平移对称性、提高深度学习在图像处理任务中的性能的方法,而非人为设计具有相应等变性质的架构,其通过学习相应的参数共享模式来实现对等变性的学习及编码,并且结果显示其成功替代了传统手动构建深度学习架构的方法。
Jul, 2020
该研究提出了一种基于等变特征表示的群等变卷积神经网络(EquiSym),用于检测具有反射和旋转对称性的图像中的对称性模式,并在新的DENDI数据集上取得了最佳表现。
Mar, 2022
本文提出了一种基于正则化的方法,用于在具有混合近似对称性的数据集上构建模型,通过该方法可以依据每种对称性类型的等变正则化器训练模型,自动调整正则化器的强度,从而发现某些候选对称性类型的近似水平,同时在功能拟合和运动预测任务中展示了比以前的方法更高的精度。
Jun, 2023
通过使用一种小型等变网络将概率分布参数化为对称化并对基模型进行端到端训练,本研究提出了一种新的框架来克服等变体系结构在学习具有群对称性的函数方面的局限性。
Jun, 2023
我们研究了群等变卷积神经网络如何使用子采样来打破对其对称性的等变性,并探讨了对网络性能的影响。我们发现,即使输入维度只有一个像素的微小变化,常用的架构也会变得近似等变,而不是完全等变。当训练数据中的对称性与网络的对称性不完全相同时,近似等变网络能够放松其等变性约束,并在常见的基准数据集上与或胜过完全等变网络。
Aug, 2023
对称性在深度学习中作为归纳偏置已经被证明是一种高效的模型设计方法。然而,在神经网络中对称性与等变性的关系并不总是显而易见。本研究分析了等变函数中出现的一个关键限制:它们无法针对单个数据样本进行对称性打破。为此,我们引入了一种新的“放松等变性”的概念来规避这一限制。我们进一步展示了如何将这种放松应用于等变多层感知机(E-MLPs),从而提供了一种与注入噪声方法相对的选择。随后,讨论了对称性打破在物理学、图表示学习、组合优化和等变解码等各个应用领域的相关性。
Dec, 2023
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
这篇论文介绍了一种概率方法,用于学习可望属性网络中等变性的程度,通过将等变性的程度参数化为傅里叶系数上的概率分布,以建模几何对称性,而无需额外的层次结构,通过模拟层级和共享的等变性,这种方法可以适用于许多类型的等变性网络,并且可以学习任何紧致群的子群的等变性,同时实验结果表明该方法在具有混合对称性的数据集上具有有竞争力的表现,并且所学习的概率分布能够准确反映底层等变性的程度。
Jun, 2024
该研究针对机器学习模型在面对对称性时的局限性,提出了一种名为对称克隆的方法,以在通用机器学习架构中引入等变性。通过这一新方法,模型能够直接学习对称性,并在后续任务中保留或打破这种对称性,极大地提升了群不变架构的学习能力。
Oct, 2024