探究人类解析器对常见错误的鲁棒性
本研究探讨了图像分类器对以文字为导向的失真的鲁棒性,并利用扩散模型对图像进行不同域的编辑,研究结果表明: 在不同语言为基础的失真和编辑域中,图像分类器的性能显著下降,卷积模型比变压器架构更为鲁棒,同时,常见的数据扩充技术可以提高原始数据和编辑图像的性能。
Apr, 2023
本篇文章介绍了一个名为 “Look into Person (LIP)” 的新的数据集,该数据集包含 50,000 多张具有 19 个语义部件标签的图像,是一个可扩展性、多样性和难度方面的重大进展,并且使用自监督学习方法解决了人体解析的问题。
Mar, 2017
本文针对计算机视觉模型在实际应用中面临的常规污染问题进行了全面和系统的综述,介绍了不同类型的图像污染以及相关的评估指标和基准数据集,并对现有模型的基础污染鲁棒性进行了评估,以帮助选择适合特定计算机视觉任务的骨干网络。
May, 2023
本文提出了一组图像转换,用作对模型鲁棒性的评估,以及训练神经网络的数据增强机制。这些转换具有现实世界中更可能出现的损坏方式和语义,可以有效提高模型的鲁棒性,并为鲁棒性研究开辟了有前途的方向。
Mar, 2022
该研究论文证明,通过对图像识别模型进行简单但适当的高斯噪声和斑点噪声训练,可以使其具有更好的泛化能力和对不同类型损坏更强的鲁棒性,并结合敌对训练方法进一步提高性能。
Jan, 2020
我们提出了一种视觉连续的损坏稳健性(VCR)方法,允许在范围广泛且连续的变化中评估神经网络对图像损坏的稳健性,并使用两种新颖的人类感知度量标准进行评估。通过在 14 种常用图像损坏上进行实验,并与大量的人类参与者和最新的稳健神经网络模型进行比较,我们的研究发现:1)连续损坏的稳健性评估可以揭示现有基准测试无法检测到的不足;因此,2)神经网络和人类的稳健性差距大于以往所知;最后,3)某些图像损坏对人类感知有相似的影响,为更具成本效益的稳健性评估提供了机会。
Feb, 2024
本调查在人相关的视觉任务中首次提供了对数据增强技术的全面分析。它深入研究了人物 ReID、人体解析、人体姿态估计和行人检测等广泛的研究领域,解决了过拟合和有限训练数据在这些领域中带来的重要挑战。我们将数据增强方法分为两类:数据生成和数据扰动。数据生成包括基于图形引擎的生成、基于生成模型的生成和数据重组等技术,而数据扰动分为图像级和人体级扰动。每种方法都针对人相关任务的独特需求进行了定制,其中一些方法适用于多个领域。我们的贡献包括广泛的文献回顾,深入洞察这些增强技术在人相关视觉中的影响,并突出每种方法的细微差别。我们还讨论了开放问题和未来方向,例如融合像潜扩散模型之类的先进生成模型,以创造更真实多样的训练数据。这项调查不仅概括了人相关视觉数据增强的当前状态,还为未来研究制定了计划,旨在开发更强大、准确和高效的人相关视觉系统。
Mar, 2024
计算机视觉中,通过数据增强方式可以提高鲁棒性,但增加高斯数据增强和对抗训练等方法并不能保证所有的污染类型都能同样得到提高,因此需要使用更多样的数据增强方式来缓解这些折衷。最近提出的 AutoAugment 方法在清晰精度和鲁棒性方面均得到了最佳表现。
Jun, 2019
本文利用最小样本距离等方法,探究了数据增强和测试时图像扭曲之间的关系,并提出了测试时图像扭曲和数据增强之间的感知相似度的概念。结果表明,基于感知相似的数据增强可以提高对图像扭曲的鲁棒性,并强调数据增强在图像扭曲鲁棒性方面的重要性。
Feb, 2021
本研究证明:大多数图像较差的基准测试不能很好地衡量图像识别模型在许多场景下的稳健性,因此提出了一种基于非监督在线适应的方法,通过更改模型激活的统计特征来提高模型的稳健性。改进后的模型可在 ImageNet-C 数据集上取得更好的表现。
Jun, 2020