该论文提出了一种新颖的隐式语义数据增强(ISDA)方法,通过在线估计每个类别的深度特征协方差矩阵并在特征空间中沿着许多语义方向平移训练样本来有效增强数据集以提高泛化性能,并提出了一个新颖的鲁棒 CE 损失函数,实现了在多个数据集上对 ResNets 和 DenseNets 等流行的深度模型的一致性提高的效果。
Sep, 2019
本文提出一种基于 ISDA 算法的新方法,通过元学习自动学习转换的语义方向来扩充极少数的分类数据样本,以达到解决单纯平衡训练集情况下典型有监督学习算法表现下降问题的目的,并在 CIFAR-LT-10 / 100、ImageNet-LT 和 iNaturalist 2017/2018 数据集上进行实验验证。
Mar, 2021
提出了一种名为 Bayesian Random Semantic Data Augmentation 的新型、高效且即插即用的语义数据增强方法(BRSDA),通过在特征空间中沿特定方向进行简单的平移,实现语义转换,并结合其他主流的数据增强方法,取得了优越的性能。
Mar, 2024
通过将数据增强作为监督领域泛化问题,并利用对比语义对齐损失方法,提高数据增强的鲁棒性和训练效率。实验证明,该方法改善了典型数据增强的鲁棒性和训练效率。
Oct, 2023
通过语义感知数据增强 (SADA) 框架来提升文本到图像合成 (T2Isyn) 模型中的文本 - 图像一致性并改善图像质量。该框架通过隐式文本语义保持增强 (ITA) 在语义空间中扩充文本,并结合特定设计的图像语义正则化损失 (Lr) 作为生成图像的语义保持,以解决语义不匹配和坍塌问题。大量实验证实了 SADA 在各种模型中提升了文本 - 图像一致性和图像质量,特别是在 Stable Diffusion 模型调整过程中的改进效果。
Dec, 2023
通过围绕发音人嵌入空间中的语义方向对训练样本进行扰动,使用鲁棒性发音人嵌入来估计准确的协方差矩阵,并推导出了预期损失的闭式上界,该研究提出了一种新颖的难度感知的语义扩增方法,能够在几乎没有额外计算成本的情况下产生多样化的训练样本,取得了令人瞩目的性能改进。
本文提供了一种名为 ICDA 的隐式反事实数据增强方法,通过生成具有不同扩展强度的深度特征来打破假象的关联,并从正则化方面解释了这种方法,结果表明我们的方法在许多需要越区域概括的典型学习场景上始终提高了流行深度网络的泛化性能。
Apr, 2023
提出了基于语义数据增强和对抗学习的人体姿势估计方法,在应对外观对称性、严重遮挡和近距离干扰等多种挑战性情况下,取得了最先进的结果。
Aug, 2020
本文技术为使用生成模型并结合任务驱动数据增强方法,显式地建模变形场和强化蒙版,用于为监督型深度学习模型训练新的 MRI 心脏分割训练数据,实验结果表明该方法在小样本数据的分割任务中表现优异。
Feb, 2019
提出了一种基于贝叶斯公式,利用广义蒙特卡洛期望最大化算法和生成对抗网络的方法,能更好地生成新的标注训练样本,并在 MNIST,CIFAR-10 和 CIFAR-100 的数据集中取得了优于现有数据增强方法和 GAN 模型的分类结果。
Oct, 2017