语义生成增强在少样本计数中的应用
本研究提出了一种方法来改善文本到图像扩散模型,使其能够准确生成输入提示中所指定的物体数量,方法包括采用计数网络和引入注意力地图引导来获得物体的高保真度掩膜并通过计算梯度产生每个物体的去噪过程引导。
Jun, 2023
利用文本到图像的潜在扩散模型 (LDMs),本研究介绍了一种无监督的排序方法,通过借助生成的计数数据,对任意类型的对象进行可靠计数,该方法优于其他无监督和少样本方法,不受特定对象类别计数数据的限制。
Mar, 2024
论文理论分析了合成数据的训练效果和提示诱导的合成数据分布之间的关系,并相应地提出了一种简单而有效的方法,通过图像字幕和类名来提示生成模型,从而合成更具信息性和多样性的训练数据。实验证明,该方法显着提高了在合成训练数据上训练的模型的表现。
Jul, 2023
研究了少量样本学习的一个解决方案,通过模拟数据来扩充现有训练数据,并应用于动物物种分类。研究结果显示,使用模拟数据可以大幅降低对稀有分类的误分类率,并且随着模拟数据量的增加,目标分类的准确性也随之提高,同时高变化的模拟数据提供了最大的性能提升。
Apr, 2019
本研究使用大规模的文本到图像扩散模型对分类条件模型进行微调,进而在 ImageNet 分类准确性得分上实现了显著的提升,证明了利用自然图像模型进行生成数据增强的可行性。
Apr, 2023
通过在大型语言模型和 CLIP 的辅助下,使用生成模型生成合成训练图像来解决类名的歧义性、缺乏多样性的问题,并利用域适应技术和辅助批归一化来减轻领域偏移,以更好地提升模型识别性能。
Dec, 2023
本文提出了一种在仅有图像数据集的情况下预训练文本到图像生成模型的新方法,通过检索和优化过程综合生成伪文本特征,可以灵活应用于各种情境和模型,并在实验中表现出显著的效果,GAN 模型在完全监督的情况下得到了 6.78 的 FID,是 GAN 最新的 SoTA 结果。
Oct, 2022