神经网络是隐式决策树:层次简约偏差
研究表明,梯度下降训练的神经网络具有归纳偏差,倾向于学习简单的解决方案,导致学习到与标签高度相关的简单虚假特征而非复杂的核心特征,此文介绍一种名为 SPARE 的方法,能够早期发现含有虚假相关性的大型分组,并利用重要性抽样来平衡组大小,从而减轻虚假关联的影响,相对于现有方法,SPARE 方法的最差组准确度提高了最高达 5.6%,速度提高了多达 12 倍。
May, 2023
该研究通过严格定义和深入探究神经网络的简单性偏差,理论上和经验上均证明在解决任务时只学习低维度输入的特征,不依赖于更复杂的特征,同时提出一种基于特征的训练顺序的集成方法,能够使得模型对高斯噪声具有更强的鲁棒性。
Feb, 2023
神经网络对简单特征具有偏好,本文提出了一种鼓励模型使用多样性特征进行预测的框架,通过训练一个简单模型并对其进行条件互信息的正则化,解决了简单性偏差问题,并在各种问题设置和实际应用中显示了其有效性,提高了模型的性能以及鲁棒性和公平性。
Oct, 2023
本实验提出特征筛选的方法,即在神经网络的低层中自动鉴定和抑制易于计算的虚假特征,从而使高级别能够提取更丰富、更有意义的特征,这可以提高深度神经网络的识别能力和准确性,且无需依赖任何预设的知识。
Jan, 2023
本文探讨了神经塌缩(Neural Collapse)现象在不平衡属性的偏倚数据集中的影响,提出了一种避免捷径学习的框架,通过设计神经塌缩结构的快捷方式引导模型,以捕捉内在的相关性,从而解决了偏倚分类的根本原因,实验证明该方法在训练过程中具有更好的收敛性能并在综合和真实世界的偏倚数据集上实现了最新的泛化性能。
May, 2024
本文提出深度神经网络可归纳地更倾向于寻找低秩嵌入的解,这种偏见在网络深度和宽度,初始化和训练过程中都存在,并且能够提高 CIFAR 和 ImageNet 数据集的泛化性能。
Mar, 2021
本文利用人类的知识针对神经网络的偏见问题提出了一个基于失败的去偏见训练方法,该方法通过训练两个神经网络同时进行,其思想是:(a) 通过反复放大偏见意图意图有意地训练第一个网络,(b) 重点关注具有对该偏差反对意见的样本以去偏见训练第二个网络。实验表明,该方法在合成和真实数据集中显著改善了网络抵御各种偏见的训练,甚至在某些情况下,比需要显式监督的有关特征的去偏见方法表现更好。
Jul, 2020
本文旨在通过设计包含不同时简单性的多个预测特征的数据集,捕捉实际训练数据中的非鲁棒性,从理论和实证研究中发现简洁性偏见在训练神经网络中的作用及其对泛化和鲁棒性的影响,提出新算法以避免简洁性偏见的缺陷。
Jun, 2020