使用与滥用等变性
对称性在深度学习中作为归纳偏置已经被证明是一种高效的模型设计方法。然而,在神经网络中对称性与等变性的关系并不总是显而易见。本研究分析了等变函数中出现的一个关键限制:它们无法针对单个数据样本进行对称性打破。为此,我们引入了一种新的 “放松等变性” 的概念来规避这一限制。我们进一步展示了如何将这种放松应用于等变多层感知机(E-MLPs),从而提供了一种与注入噪声方法相对的选择。随后,讨论了对称性打破在物理学、图表示学习、组合优化和等变解码等各个应用领域的相关性。
Dec, 2023
本文介绍一种使用群等变卷积神经网络来解决逆问题的学习重建方法,通过在迭代方法中建立群等变卷积神经网络解决拉伸同变的问题,实现了低剂量计算机断层成像重建和子采样磁共振成像重建的质量提升。
Feb, 2021
本文介绍了四种可以插入神经网络模型中的操作,并将它们组合起来使这些模型具有部分对称旋转性,并且使得神经网络可以在不同方向共享参数,从而达到更好的性能和模型尺寸。
Feb, 2016
这篇研究论文介绍了一种从数据学习平移对称性、提高深度学习在图像处理任务中的性能的方法,而非人为设计具有相应等变性质的架构,其通过学习相应的参数共享模式来实现对等变性的学习及编码,并且结果显示其成功替代了传统手动构建深度学习架构的方法。
Jul, 2020
本研究论文探讨卷积神经网络在对称群中的应用,提出了群等变神经网络的概念和架构,以及使用多种层和滤波器的方法,为对称群的表示和胶囊的细节做出了数学分析。
Jan, 2023
卷积将等变对称性编码到神经网络中,从而提高泛化性能。为了允许灵活的对称约束,我们改进了软等变性的参数化,并通过优化边缘似然来学习层面的等变性。我们展示了在图像分类任务上自动学习层面等变性的能力,获得了与硬编码对称性基线相当或更好的性能。
Oct, 2023
我们提出了一种语义分割模型,利用旋转和反射对称性,扩展了等变 CNN 框架,通过引入新的等变(G-》Z2)- 卷积和等变转置卷积,实现了对组别特征图的变换与上采样,进而提高了样本效率和鲁棒性,并在癌症转移组织病理图像的多个数据组织方案的旋转等变分割任务上进行了评估,证明了利用更多对称性的高效性。
Jul, 2018
本文提出了一种方法,通过使用可缩放的傅里叶 - 阿甘德表示法和类似卷积的操作来实现卷积神经网络对于平移、旋转和缩放的同时等变性,并验证了该方法在图像分类任务方面的有效性和对缩放和旋转输入的泛化能力。
Mar, 2023