Fill-Up: 用生成模型平衡长尾数据
利用分类器对生成模型的反馈来增强静态数据集,并验证其有效性和效率,实现了在低频数据类别上的最新成果以及最糟糕分组准确性的显著提升,为有效利用最先进的文本到图像模型作为数据源,改进下游应用提供了路径。
Sep, 2023
本文提出了一种新的解决长尾图像识别中头尾偏差问题的方法,通过调整标签空间来平衡数据,从而提高分类性能。实验证明该方法可应用于多种模型,并为长尾特征学习提供了思路。
Aug, 2022
提出了两种新方法,一种是平衡取向的数据增强(Uniform Mixup),另一种是基于贝叶斯理论的 Bayes Bias,并通过理论和实验证明,这两种方法能够确保分类校准和提高性能。
Nov, 2021
本文提出了一种在仅有图像数据集的情况下预训练文本到图像生成模型的新方法,通过检索和优化过程综合生成伪文本特征,可以灵活应用于各种情境和模型,并在实验中表现出显著的效果,GAN 模型在完全监督的情况下得到了 6.78 的 FID,是 GAN 最新的 SoTA 结果。
Oct, 2022
本文提出了一种新方法,通过在特征空间中使用来自具有丰富样本的类别所学习的特征来增强特征空间中的欠表示类别,从而解决长尾分布问题。通过使用类别激活映射,将每个类别的特征分解为类别通用和类别特定部分,并将欠表示类别的类别特定特征与混淆类别的类别通用特征融合,实时生成新样本。结果表明,在 iNaturalist、ImageNet-LT、Places-LT 以及 CIFAR 的长尾版本等数据集上,本文所提出的方法展现了最先进的表现水平。
Aug, 2020
通过使用 SDXL,我们提出一种低成本的微调技术来改善不同情况下文本生成的准确性,并通过将随机字符添加到原始数据集中来提高模型在生成良好形式视觉文本方面的性能。
Jun, 2024
本文提出了一种新的生成和微调框架,LTGC(Long-Tail Generative and Fine-Tuning Framework),通过利用生成的内容来处理长尾识别问题。该框架通过利用大规模模型中丰富的隐式知识来解析和推理原始尾部数据,生成多样的尾部类别内容,并通过几种新颖的设计确保生成数据的质量,以及利用生成和原始数据进行高效微调。可视化结果证明了 LTGC 中生成模块的有效性,它能产生准确且多样的尾部数据,实验结果表明我们的 LTGC 在流行的长尾基准测试中优于现有的最先进方法。
Mar, 2024
研究了长尾训练数据对于文本到图像模型的影响,并提出了 SeedSelect 技术,通过在噪声空间中选择适当的初始种子,可以有效地生成罕见的图像概念,提高了模型效果,特别是在手部图像生成方面的表现得到了明显改善。
Apr, 2023
通过在大型语言模型和 CLIP 的辅助下,使用生成模型生成合成训练图像来解决类名的歧义性、缺乏多样性的问题,并利用域适应技术和辅助批归一化来减轻领域偏移,以更好地提升模型识别性能。
Dec, 2023
使用少量训练样本进行图像分类的研究涉及到利用知识蒸馏将高性能但计算速度较慢的模型的能力转移到小型高效模型上,通过使用合成数据来弥补数据不足,并利用扩散模型反演技术(TINT)和生成模型进行少样本蒸馏,达到接近先前研究的最高准确性,同时比先前研究更快速地完成任务。
Jun, 2024