通过批次统计调整生成小数据集图像
Dataset Distillation technique using learned prior of deep generative models and a new optimization algorithm improves cross-architecture generalization by synthesizing few synthetic images from a large dataset.
May, 2023
本研究利用预训练的大规模 GAN 模型在有限数据情境下实现了对感知明显目标领域的图像生成,提出了自适应滤波器调制(AdaFM)的方法,证明了此技术在限制数据生成方面的有效性。
Feb, 2020
提出了一种少样本领域自适应框架,通过受目标域的一个小支持集合监督的预训练源模型中的特征标准化统计的约束优化,可改善源模型的分类性能,实验证明该方法优于测试时适应方法,并且没有实时流条件的限制。
May, 2022
我们提出了一种转移学习框架,通过基于扩散的生成模型在少量真实数据情景下改善目标检测器的性能,从而解决了数据有限性的挑战。该方法在海洋生物学和城市环境中的鱼类和汽车目标检测任务中取得了与数千张图像训练模型相媲美的检测性能,为各个领域的基于生成 AI 的机器学习应用开辟了新的途径。
Feb, 2024
研究如何转移使用 GAN 训练的一个图像领域到一个新的领域,只需一个目标图像;通过使用属性适配器和属性分类器的轻量级模块,对生成器和鉴别器进行改进,从而提高合成质量和多样性,并在训练过程中约束生成领域的多样性,不仅在各种设置下带来了具有吸引力的结果,而且能够在几分钟内提供稳健的收敛。
Nov, 2021
本文旨在通过在训练时使用合成特征统计数据来增强深度学习模型的泛化能力,建立在统计学的基础上,每个特征统计量变为具有不同分布概率的概率点。研究表明,这种方法可以显著提高图像分类、语义分割和实例检索等多项视觉任务的网络泛化能力。
Feb, 2022
本文研究了生成数据集对图像分类器自然鲁棒性的影响,发现与标准训练和流行的数据增强策略相比,使用真实数据和生成数据相结合进行训练可以提高 Imagenet 分类器的准确性和鲁棒性,同时分析了不同因素对结果的影响,并介绍了 ImageNet-G-v1 数据集。
Feb, 2023
提出了一种新的方法,通过利用训练教师网络内在归一化层的统计信息来训练生成图像模型,从而在没有训练数据的情况下实现知识迁移、模型压缩和半监督学习,该方法在 CIFAR-10 和 CIFAR-100 数据集上表现出色,并能够将其扩展到 ImageNet 数据集。
Dec, 2020
本文提出了一种新的潜在数据增强方法,利用无监督的学习方式在低数据量的情况下,针对生成模型中容易发散的问题进行了优化,实现了有效而稳定的训练,并生成了高质量的样本。实验结果显示,该方法在少样例学习生成任务中取得了很好的效果。
Dec, 2021