DAC-MR: 基于数据增强一致性的元学习元正则化
本文介绍了数据增广的 DAC 与 DA-ERM 算法,通过使用 CIFAR-100 和 WideResNet 进行实验,证明 DAC 具有更高的效率和更好的性能。
Feb, 2022
本文提出了 Meta-Learning 中的过拟合问题,并使用信息理论框架讨论基于元学习数据增强的方法来解决这个问题。实验证明,该方法对最近提出的元规则技术有很大的补充作用。
Jul, 2020
本研究针对图像分类器的训练方法进行了探讨,通过元学习算法对支持数据、查询数据和任务进行复杂的抽样,利用数据增强方法不仅可增加每个类别的图片数量,还可生成全新的类别和任务,提高了元学习器在少样本分类基准上的性能。
Oct, 2020
该研究论文探讨了提高深度学习的生成数据增强方法。通过利用生成模型产生的合成样本作为附加的小数据集进行分类,生成数据增强能够改善分类效果。研究中提出了一种名为元生成正则化(MGR)的生成数据增强策略,通过在特征提取器的正则化项中使用合成样本来避免性能下降。实验结果表明,MGR 在小数据集上表现优异,有效地提高了基准性能。
Jul, 2023
本文从梯度规范化的角度出发,提出了一种数据无关的元梯度增强 (MGAug) 方法,通过网络修剪来打破背诵性记忆,并探讨了三种修剪策略,实验表明该方法在多个 few-shot 学习基准测试中显著提高了性能
Jun, 2023
提出了一种基于元学习的小样本学习框架,通过在元模型更新阶段引入鲁棒性正则化来提高模型的对抗鲁棒性,在此基础上,提出了一个通用的鲁棒性正则化的元学习框架,可以使用不带标签的数据增强和对抗性攻击技术来实现有效的鲁棒性训练。此外,引入辅助对比学习任务进一步提高了模型的鲁棒性。
Feb, 2021
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
该研究提出了 MetaMix 和 Channel Shuffle 等两种元学习任务增广方法,以提高元学习的泛化能力。实验结果显示这两种方法都能显著提高元学习在多个数据集上的表现,并且与现有元学习算法兼容。
Jul, 2020
提出了一种称为课程元学习的方法,该方法将元学习和课程学习相结合,以自适应地学习许多工件的恢复,相比于两个心脏数据集的随机梯度下降和元学习,CMAML 在 83%的未见过的工件类型和数量的情况下展现出更好的波峰信噪比和在所有情况下都有改进的结构相似性指数,并在 5 个复合工件(多工件扫描)中抑制 4 个案例中的工件更好。
Apr, 2023