本文介绍了数据增广的 DAC 与 DA-ERM 算法,通过使用 CIFAR-100 和 WideResNet 进行实验,证明 DAC 具有更高的效率和更好的性能。
Feb, 2022
本文提出了一种基于一致性正则化的简单、有效的 GAN 训练稳定器,通过在 GAN 鉴别器中引入数据扩充并惩罚鉴别器对这些扩充的敏感度,以在不增加显着计算开销的情况下,为无条件和有条件图像生成提供最佳结果。
Oct, 2019
通过将数据增强作为监督领域泛化问题,并利用对比语义对齐损失方法,提高数据增强的鲁棒性和训练效率。实验证明,该方法改善了典型数据增强的鲁棒性和训练效率。
Oct, 2023
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本研究提出了一种基于多样高斯噪音的一致性正则化方法,来改进图像分类器在面临各种噪声干扰时的鲁棒性和准确性。经过多项测试,在各项图像分类基准测试中,本方法都显著地超越了当代各种先进方法,进一步提高鲁棒精度和不确定性校准。
Apr, 2021
本论文实验证明,鼓励一致性规则的简单损失函数可以显著提高模型对噪声标签的鲁棒性。
Oct, 2021
研究表明,现有的数据增广和权重衰减等正则化技术会导致模型在某些类别上性能下降,从而证明需要研究不带类别偏差的新型正则化技术。
Apr, 2022
利用数据增强作为正则化方式,我们从解析角度重新考虑了数据增强在深度神经网络中的泛化问题,并发现它显著降低了模型泛化误差,但同时也导致略微增加了经验风险。使用较少的数据对完整增强的数据进行训练能够帮助模型更好地收敛于更好的区域,从而进一步提高准确性。
Sep, 2019
通过使用先进的数据增强方法 RandAugment 和后向翻译来取代简单噪声操作,在大量无标签数据上进行一致性训练,从而在六种语言和三个视觉任务中带来了显著的改进,并在 CIFAR-10 数据集上超过了所有先前的方法,实现了错误率为 5.43,只使用了 250 个示例。
Apr, 2019
本文提出了一种新的正则化方法 —— 增强循环一致性正则化(ACCR),该方法适用于无配对图像转换。通过使用真实、假的、重构的和增强的样本,我们试图在辨别器上施加来自半监督学习的一致性正则化。实验结果表明,该方法在诸多方面表现优异,尤其在真实世界的转换中表现得更为有效。
Feb, 2020