Sep, 2023

有针对性的激活罚则帮助 CNN 忽略虚假信号

TL;DR神经网络(NN)可以学习依赖于训练数据中的虚假信号,从而导致很差的泛化能力。最近的研究针对该问题使用附加的虚假信号的真实注释来训练 NNs。然而,这些方法可能导致虚假信号在深度卷积 NNs(CNNs)中重新出现。我们提出了一种新方法,即目标激活惩罚(TAP),通过罚则来控制深度 CNNs 中虚假信号的重新出现,同时降低训练时间和内存使用。此外,真实注释可能需要费用较高。我们展示了 TAP 对 MNIST 基准测试和两个临床图像数据集的两种最先进方法的优势,使用四种不同的 CNN 架构,并表明 TAP 仍然适用于由预训练模型生成的注释作为真实注释的有效替代。