将监督领域泛化融入数据增强
本研究系统地研究了简单、基于规则的图像增强方法(如模糊、噪声、色彩抖动等)对深度神经网络(DNNs)的领域内外泛化能力。 实验结果表明,对多个不同的图像增强进行组合优于单独使用单个图像增强,并且与最先进的领域泛化方法相比表现相当。
Apr, 2023
使用可学习参数的语义转换的敌对学习(AdvST)通过对源领域数据进行语义转换增强并学习鲁邦岛移情据从而优化在语义分布上定义的分布鲁邦岛优化目标。与现有方法相比,AdvST 具有竞争力且在 Digits,PACS 和 DomainNet 数据集上获得最佳的平均单域类比性能。
Dec, 2023
在非领域内和领域泛化设置中,通过使用均匀采样的标准数据增强转换,增加转换的强度以适应领域外的更高数据差异,并设计新的奖励函数来拒绝可能损害训练的极端转换,我们的数据增强方案达到与基准领域泛化数据集上的最先进方法相媲美甚至更好的准确性。
Oct, 2023
本文提出了一种新的演化域广义化方法,即 Directional Domain Augmentation (DDA),并采用表示空间中的元学习方法解决了双层优化问题,该方法在合成数据集和现实世界数据集上进行了实际测试,并取得优于其他现有方法的结果。
Jan, 2023
本文针对深度学习部署时出现的不稳定问题,研究了领域泛化方法和数据增强策略。作者聚焦于风格迁移数据增强,展示了如何以简便廉价的策略实现增强,分析了现有领域泛化方法与该策略结合时的表现,并提出了新的领域泛化研究方向。
Jan, 2021
提出了一种基于贝叶斯公式,利用广义蒙特卡洛期望最大化算法和生成对抗网络的方法,能更好地生成新的标注训练样本,并在 MNIST,CIFAR-10 和 CIFAR-100 的数据集中取得了优于现有数据增强方法和 GAN 模型的分类结果。
Oct, 2017
本文提出了一种基于卷积神经网络的交叉域泛化图像分类方法,通过 Augmentation Layer 增强 CNN 的中间特征图以提高模型在跨域数据上的泛化能力,实验结果表明本方法在 PACS、VLCS、Office-Home 和 TerraIncognita 等数据集上表现优异。
May, 2023
该论文研究了如何通过采用特征空间中的隐式语义增强来提高模型的泛化性能,并将距离度量学习(DML)的额外损失函数和无限增强的交叉熵损失的 logits 作为 DML 损失的输入特征。实验表明,该方法在 Digits-DG、PACS 和 Office-Home 三个基准测试数据集上可以实现最先进的性能水平。
Aug, 2022