SMOOT:基于显著性引导的掩模优化在线训练
通过使用基于显著性引导的训练(SGT)技术,研究表明它对深度学习模型的鲁棒性和可解释性有显著提升,并提出了一种将 SGT 与标准对抗训练相结合的方法,在确保显著性图质量的同时,实现更大程度的鲁棒性。该方法取得了显著进展,在 MNIST 和 CIFAR-10 数据集上,对于 PGD 攻击的噪声幅度分别为 0.2 和 0.02 时,鲁棒性提高了 35%和 20%,同时生成高质量的显著性图。
May, 2024
本文介绍了一种基于显著性引导培训的神经网络方法,可以有效降低噪声导致的特征归因不准确,并通过实验表明这种方法能够在保持预测性能的同时提高模型可解释性。
Nov, 2021
本研究采用掩蔽技术生成显著性地图,发现训练分类器的同时,采用掩蔽技术生成显著性地图具有很高的性能,并且 10 个样本每类也可以显著提高显著性地图的精度。
Oct, 2020
本文研究深度神经网络的鲁棒性问题,特别关注对抗样本的攻击。通过在线显著特征训练,得到视觉可解释性的特征,但实验结果显示,这些特征并不能提升模型对抗样本攻击的性能。
Jun, 2023
本文提出结合梯度下降和符号技术的方法来解决神经网络中最相关的最小区域的问题,并使用基于综合梯度的梯度信息来提高其可扩展性,达到模型解释的目的。通过对 MNIST、ImageNet 和 Beer Reviews 这三个数据集的实验,证明了这种方法可以产生更加稀疏、可解释性更强的区域。
Jun, 2020
通过在卷积神经网络中引入掩蔽操作作为额外的数据增强方法,并显式考虑显著性约束,本研究提出了一种改进的对比学习框架,以减轻包括掩蔽操作在内的对比学习中存在的问题,并在多个数据集、对比学习机制和下游任务上进行的广泛实验验证了其有效性和卓越性能。
Sep, 2023
本文提出了一个简单而有效的 Salient Mask-Guided Vision Transformer(SM-ViT)方法来在精细 - grained 视觉分类(FGVC)问题中捕捉潜在的可区分特征,进而提高视觉 Transformer 模型的分类性能。实验证明,SM-ViT 比现有的基于 ViT 的方法表现更优秀,需要更少的资源和较低的输入图像分辨率。
May, 2023
本文提出了一种新的方法,利用显著性遮罩和对比学习来减轻训练不平衡数据的问题并提高模型的泛化能力,在特征空间中将遮罩图像移向次要类别,以减少与原始类别相关的背景特征。实验证明,我们的方法在基准长尾数据集上获得了最先进的性能水平。
Jun, 2024
为了解决在医学成像中的过拟合问题,本文提出了一种名为 GradMask 的正则化方法,通过对错误的特征与目标类之间的关联进行惩罚,防止非瘤相关特征对不健康样本的分类产生贡献,并取得了 1-3% 的精度提升。
Apr, 2019
本研究通过引入基于显著性的 Q 网络(SGQN),提出了一种通用的视觉强化学习方法,该方法对 Deepmind 的控制泛化基准进行了改进,从而在训练效率、泛化差距和策略可解释性等方面创造了新纪录。
Sep, 2022