深度权重空间中的数据增强
分析神经网络的深度权重空间(Deep Weight Spaces,DWS)中的过拟合问题,针对该问题提出数据增强和自监督对比学习方法,并在分类和自监督学习中证明了其有效性。
Feb, 2024
本文研究了在机器学习分类器的训练中,通过合成数据样本来增强数据的效果。通过数据扭曲和特征空间中的合成过采样两种方法,我们对卷积神经网络,卷积支持向量机和卷积极限学习机分类器在标准的 MNIST 手写数字数据集上进行了实验评估。实验结果表明,在数据空间中合成数据可以更有效地提高性能和缓解过拟合问题。
Sep, 2016
本文对图数据增强技术及其在图神经网络领域中的应用进行了综述,提出了增强信息模态分类的分类法并概括了可靠图学习和低资源图学习中的代表性应用,并回顾了已有的相关文献。最后,我们指出了未来研究中的机遇和挑战。
Feb, 2022
本文介绍了一种新的方法,它支持使用相同的梯度算法学习不同的数据操作方案。这种方法基于监督学习和强化学习之间的联系,并调整来自强化学习的现成奖励学习算法,用于联合数据操作学习和模型训练。通过学习文本转换网络和动态适应数据样本重要性来展示数据扩充和数据加权,实验表明所得到的算法明显提高了图像和文本分类的性能。
Oct, 2019
采用 “Deep Augmentation” 方法,通过在神经网络内部针对性地应用 dropout 实现数据增广,并采用 stop-gradient 操作进一步提高模型性能和泛化能力,在视觉和自然语言处理领域的对比学习任务中通过对 ResNets 和 Transformers 模型的广泛实验证明效果显著,与增广输入数据相比,针对深层模型的 Deep Augmentation 效果更好,而且该方法简单且对网络和数据无限制,方便集成到计算机视觉和自然语言处理流程中。
Mar, 2023
本文研究数据增强在卷积神经网络中的隐式规则效应,与显式正则化技术(如权重衰减和 Dropout)相比,数据增强能更易于适应不同的网络结构和训练数据。通过对不同网络架构和训练数据量的消融研究,我们揭示了数据增强的优势,这是长期被忽视的问题。
Jun, 2019
通过研究比较权值衰减、随机失活和数据增强等正则化技术在深度学习中的作用,提出了数据增强对于提高深度学习泛化性能的显著贡献。因此,建议不要使用权值衰减和随机失活,而要更加关注数据增强和其他归纳偏差来优化神经网络。
Jun, 2018
本文提出了一种以样本为基础的数据增强策略,采用元学习解决数据增强效果与样本间变异之间的平衡问题,并在 CIFAR-10/100、Omniglot、ImageNet 等数据集上通过实验证明了其优越性能。
Dec, 2020
本文提出了一种理论框架,证明了数据增强等效于对保持数据分布近似不变的某一群轨道的平均操作,从而能够减少方差,研究了经验风险最小化、指数族、线性回归和某些双层神经网络这些领域中数据增强的应用。
Jul, 2019
这篇论文提出了权重增强策略 (WAS),通过随机变换权重系数训练和转换后的系数 (SW) 来影响参数更新,使网络具有高鲁棒性和准确性,适用于各种深度学习网络模型,并且实验证明其在各种网络上的效果都非常好。
May, 2024