神经网络中的不变性学习
本文介绍一种使用群等变卷积神经网络来解决逆问题的学习重建方法,通过在迭代方法中建立群等变卷积神经网络解决拉伸同变的问题,实现了低剂量计算机断层成像重建和子采样磁共振成像重建的质量提升。
Feb, 2021
本文探讨了从训练数据中学习不变性的新方法,该方法使用可学习的增强层直接构建在网络中,具有很高的可塑性、易于训练和快速的优点,可以应用于计算机视觉以外的广泛领域。实验证明,该方法不受模型表达能力的限制,与当前基于双层优化的现代自动数据增强技术相比表现出色。
Feb, 2022
这篇研究论文介绍了一种从数据学习平移对称性、提高深度学习在图像处理任务中的性能的方法,而非人为设计具有相应等变性质的架构,其通过学习相应的参数共享模式来实现对等变性的学习及编码,并且结果显示其成功替代了传统手动构建深度学习架构的方法。
Jul, 2020
该研究介绍了两种机器学习建模方法 —— 不变性随机特征和不变性核方法,其中不变性核方法包括全局平均池化的卷积神经网络的神经切比雪夫核。研究表明,建立不变性机制使得机器学习模型样本容量和隐藏层单元数量成指数降低,从而在保持测试误差不变的情况下提高统计效率。此外,研究表明,数据增广与无结构核估计等价于一个不变性核估计,具有相同的统计效率。
Feb, 2021
卷积神经网络 (CNN) 在各种计算机视觉任务中提供了最先进的性能。本文研究如何在 CNN 中最佳地包括旋转不变性以进行图像分类,并通过数据增强等方法训练网络以实现旋转不变性。
Oct, 2023
卷积将等变对称性编码到神经网络中,从而提高泛化性能。为了允许灵活的对称约束,我们改进了软等变性的参数化,并通过优化边缘似然来学习层面的等变性。我们展示了在图像分类任务上自动学习层面等变性的能力,获得了与硬编码对称性基线相当或更好的性能。
Oct, 2023
我们研究了群等变卷积神经网络如何使用子采样来打破对其对称性的等变性,并探讨了对网络性能的影响。我们发现,即使输入维度只有一个像素的微小变化,常用的架构也会变得近似等变,而不是完全等变。当训练数据中的对称性与网络的对称性不完全相同时,近似等变网络能够放松其等变性约束,并在常见的基准数据集上与或胜过完全等变网络。
Aug, 2023