特征削弱:临域数据增强分类
本文提出了基于弱监督数据增强网络(WS-DAN)来增强数据的判别力,通过产生注重于目标物体区域的注意力图,从而提升深度神经网络的训练,从而提高了图像分类的准确性,得到了优于现有最优模型的结果。
Jan, 2019
使用数据增强来鼓励模型更喜欢强特征,并且研究其对于特征学习的影响。在测试中,数据增强通常在起初起到反效果的作用,并且较难取代弱特征的强特征学习效果较差。
Apr, 2020
该研究论文介绍了一种用于保护隐私的联邦学习领域的数据增强方法,称为邻域特征级数据增强,该方法能够有效解决不同医学研究机构之间的数据分布差异和局部特征偏移问题,可在 3D 脑肿瘤和心脏分割任务中取得显著改进。
Oct, 2023
本文提出了一种新的潜在数据增强方法,利用无监督的学习方式在低数据量的情况下,针对生成模型中容易发散的问题进行了优化,实现了有效而稳定的训练,并生成了高质量的样本。实验结果显示,该方法在少样例学习生成任务中取得了很好的效果。
Dec, 2021
通过融入对抗性和反对抗性扰动分布,增强样本的深度特征,适应性调整学习困难以适应每个样本的特征。同时,开发了一种基于元学习的框架,通过引入增强的效果并跳过显式的增强过程,优化分类器。在长尾学习、广义长尾学习、嘈杂标记学习和子种群转移学习等四种常见偏差学习场景中进行了广泛实验,实证结果表明该方法始终达到最先进的性能水平,突显其广泛适应性。
Apr, 2024
本文主要研究基于深度神经网络的方法在训练数据与测试数据分布不一致时的性能问题,并通过学习训练样本的权重以消除特征之间的依赖关系,从而提高深度模型的性能。通过在多个分布泛化基准测试上的实验,与同类研究相比,我们的方法取得了很好的效果。
Apr, 2021
本文提出了一种创新的特征提取和扩增方法,利用聚类提取的内部和跨类别原型代表信息,生成各式各样的复杂变换,结合传统图像扩增用于一致性正则化损失,实验验证结果表明在小尺寸数据集上与当前先进技术相当,且可以扩展到更大的数据集,例如 CIFAR-100 和 mini-Imagenet 上取得重大进展,并在 DomainNet 上实现更好的鲁棒性。
Jul, 2020
本文提出了一种新颖的类别增量学习方法,通过引入基于对抗攻击的特征增强技术。通过使用先前学习的分类器来补充训练样本,而不仅仅在后续模型中起到知识蒸馏的教师作用。该方法在类别增量学习中利用以前的知识有独特视角,因为它使用其他类别的示例通过先前学习的分类器上的对抗攻击来增强任意目标类别的特征。该方法可以方便地融入现有的类别增量学习算法,无需进行任何架构修改。在标准基准测试中的广泛实验表明,我们的方法在各种情况下都显著优于现有的类别增量学习方法,特别是在存储示例数量很少的情况下具有极小的存储空间。
Apr, 2023
本文提出一种名为动态特征聚合的方法,旨在通过优化正则化和引入正交分类器的方式,压缩卷积神经网络 (CNN) 建模中的嵌入空间和提高模型的鲁棒性,从而更好地应对对抗攻击。在 CIFAR-10 数据集上,我们的方法平均准确率为 56.91%,优于 Mixup 基线 37.31%;此外,我们的方法还在超出分布检测方面实现了最佳性能。
May, 2022