通过研究深度神经网络的损失函数平面的同构性,我们证明了深度集合优于贝叶斯神经网络在提高准确度和对数据集变化的鲁棒性方面,并发现随机初始化的权重可以探索不同的函数空间而产生更多样的结果。
Dec, 2019
通过引入一种新颖的图网络架构,它对于保持相邻节点距离的所有坐标嵌入的任何变换都具有等变性,特别是在 $n$- 维中具有欧几里得和共形正交群等变性,从而使得所提出的模型相对于传统图形架构更加数据高效,并且本质上配备了更好的归纳偏差。我们表明,通过少量数据的学习,我们提出的架构可以完全推广到合成问题中的未见数据,而标准模型需要更多的训练数据才能达到可比较的性能。
Jun, 2021
神经网络的等变性有助于提高数据效率,参数效率和对域外透视偏移的鲁棒性,数据增强,模型容量的减少以及卷积导致神经网络学习更高的等变性。
Apr, 2023
通过使用已有的等变体系结构,我们在构建神经过程中使用近似等变性的方法,证明了该模型在合成和真实回归实验中的有效性。
Jun, 2024
我们通过神经切向核(NTK)探索深度集合和高斯过程(GPs)之间的联系,引入对标准深度集合训练的简单修改,其中包括对每个群集成员的可计算、随机且不可训练的函数的添加,以在无限宽度下启用后验解释,用于回归和分类任务中,证明了我们的贝叶斯深度集成在无限宽度限制下进行更保守的预测,可在不同的寻常数据的情况下胜过标准的深度集成。
Jul, 2020
我们研究了群等变卷积神经网络如何使用子采样来打破对其对称性的等变性,并探讨了对网络性能的影响。我们发现,即使输入维度只有一个像素的微小变化,常用的架构也会变得近似等变,而不是完全等变。当训练数据中的对称性与网络的对称性不完全相同时,近似等变网络能够放松其等变性约束,并在常见的基准数据集上与或胜过完全等变网络。
Aug, 2023
本文针对深度学习的无监督学习,将群不变和群等变表示学习扩展到了该领域。我们提出了一种基于编码器 - 解码器框架的通用学习策略,其中潜在表示被分为不变项和等变群作用项。在利用预测适当的群作用来对齐输入和输出姿势以解决重建任务时,网络可以学习将数据编码和解码为群不变表示。我们导出依变编码器的必要条件,并针对旋转,平移和置换明确描述了我们的构造。我们在不同网络架构下使用不同数据类型进行各种实验,测试了我们方法的有效性和鲁棒性。
Feb, 2022
本研究提出了一种新的不变和等变深度神经网络的泛化误差上界,并开发了一个称为 “商特征空间” 的方法来描述其对于一些属性的作用,证明了 “商特征空间” 的容积可以描述泛化误差并进一步表明不变性和等变性显著改善了误差上界的主导项,同时讨论了不变性 DNN 的表达能力并证明了其能够实现最佳逼近率,并通过实验结果验证了理论结果。
Oct, 2019
本文建立了贝叶斯、变分贝叶斯和集成学习方法之间的第一个数学严谨联系,并将深度学习中常遇到的非凸优化问题重新表述为概率测度空间中的凸优化。我们通过 Wasserstein 梯度流的广义变分推理研究统一理论,这提供了各种看似不相关的方法(包括深度集成和(变分)贝叶斯方法)的不确定性量化,为深度集成算法的成功提供了一种全新视角,并且允许导出具有收敛保证的新集成方案。我们提出了一类具有与热力学中粒子系统相似交互的深度集成系统,并利用我们的理论证明了这些算法会收敛到概率测度空间中的一个明确定义的全局极小值。
May, 2023
本研究提出了一种新的共同关注等变神经网络,它不仅能够保留输入的结构信息,而且能够注意到数据中同时出现的变换,并将其泛化到由多个对称组成的群上,实现更好的目标识别效果。
Nov, 2019