回归学习的一阶流形数据增强
本文提出了一种新的演化域广义化方法,即 Directional Domain Augmentation (DDA),并采用表示空间中的元学习方法解决了双层优化问题,该方法在合成数据集和现实世界数据集上进行了实际测试,并取得优于其他现有方法的结果。
Jan, 2023
该论文提出了一种新的神经网络数据增强方法,用于 Direction of Arrival(DOA)估计,并且通过两个实验表明,该方法可以大大提高 DOA 估计的精度。
Oct, 2019
在非领域内和领域泛化设置中,通过使用均匀采样的标准数据增强转换,增加转换的强度以适应领域外的更高数据差异,并设计新的奖励函数来拒绝可能损害训练的极端转换,我们的数据增强方案达到与基准领域泛化数据集上的最先进方法相媲美甚至更好的准确性。
Oct, 2023
使用对数据流形的损坏和重构函数,我们在自然语言领域引入了 SSMBA 数据增强方法,实现了对语料库的数据增强,结果表明在三个任务和九个数据集上,SSMBA 始终优于现有的数据增强方法和基线模型,特别是在机器翻译和情感分析方面,准确率和 BLEU 分数都有很大提升。
Sep, 2020
通过数据增强技术,我们提出了一种名为 SF (DA)^2 的新方法,它克服了先前能提出的源无关域适应方法在类保持变换和内存、计算需求等方面的挑战,并在 SFDA 场景中展现了卓越的适应性能。
Mar, 2024
通过将点对点核估计替换为域对邻域的新密度估计,以进一步减小域间的差距,我们提出一种名为跨域生成增强(CDGA)的新型数据增强方法,它基于潜在扩散模型(LDM),生成填充所有域之间差距的合成图像,并减小非独立同分布性。我们展示了 CDGA 在 Domainbed 基准测试中优于最先进的域泛化方法。为了解释 CDGA 的有效性,我们生成了超过 500 万个合成图像,并进行了广泛的剔除研究,包括数据缩放规律、分布可视化、域间偏移量量化、对抗鲁棒性和损失函数分析。
Dec, 2023
该篇研究论文提出了一个基于循环迭代的数据增强方法,使用虚构的目标领域中存在 “困难” 样本的数据来训练学习模型,以在先前未知的目标领域上实现更好的一般化表现。该方法利用对抗性示例以及数据依赖正则化来提高模型性能。
May, 2018
本研究系统地研究了简单、基于规则的图像增强方法(如模糊、噪声、色彩抖动等)对深度神经网络(DNNs)的领域内外泛化能力。 实验结果表明,对多个不同的图像增强进行组合优于单独使用单个图像增强,并且与最先进的领域泛化方法相比表现相当。
Apr, 2023
领域泛化通过提高模型的鲁棒性来开发具有分布偏移上的稳定性的模型。现有方法在跨域数据上学习不变性以增强模型的稳健性,数据增强被广泛用于学习不变的预测模型,其中大多数方法在输入空间进行增强。然而,输入空间的增强的多样性有限,而特征空间的增强更加灵活且显示了有希望的结果。然而,特征语义很少被考虑,现有特征增强方法缺乏增强特征的多样性。我们将特征分解为类通用、类特定、领域通用和领域特定组件。我们提出了一种名为 XDomainMix 的跨域特征增强方法,使我们能够增加样本的多样性,同时强调学习不变表示以实现领域泛化。对广泛使用的基准数据集的实验证明我们的方法能够实现最先进的性能。定量分析表明我们的特征增强方法有助于学习在不同领域中都不变的有效模型。
May, 2024
TabMDA 是一种用于表格数据的流形数据增强方法,利用预训练的上下文模型将数据映射到流形空间,并通过多次编码数据进行标签无关的转换,从而拓展训练数据集,为下游分类器的性能提供了一种有效的利用预训练上下文模型的方式。
Jun, 2024