- 评估耐久性:多模式数字水印的基准洞察
水印技术的鲁棒性在实际应用中的重要性和可靠性,并通过评估图片和文本生成模型生成的带水印内容在常见的实际场景下的鲁棒性验证了这一点。
- 评估用于病理图像分析的 PathCLIP
利用临床诊断和治疗决策的精确图像分类和检索至关重要。PathCLIP 在病理图像分析方面表现出色且具有较强的抗图像破坏能力,并在零样本分类中超过了 OpenAI-CLIP 和 PLIP 模型。但注意在使用时要确保图像质量。
- 数字病理学中使用错误模拟评估和增强深度学习模型的鲁棒性
数字病理学中的深度学习为病理分析带来了智能和自动化的显著提升,然而,组织准备到幻灯片成像的多个步骤引入了各种图像损坏,使得深度神经网络模型难以在临床诊断中获得稳定的诊断结果。为了评估和进一步增强模型的鲁棒性,我们分析了病理生命周期中全栈损坏 - 提升具有类 V1 前端的 CNN 的鲁棒性需要匹配 V1 的神经表征
在具有卷积神经网络的目标识别方面取得了巨大成功的同时,它们难以辨识出带有不同类型常见噪音模式的图像中的对象。最近的一项研究表明,在模拟 CNN 前端的早期视觉区域中的计算将提高对图像破坏的鲁棒性,本文进一步探讨了这一结果,并显示精确匹配灵长 - 探究人类解析器对常见错误的鲁棒性
通过构建三个数据集来评估人体解析模型的风险容忍度,并提出一种新颖的异构数据增强机制,可以在常见的图像损坏条件下提高人体解析模型的鲁棒性。
- RobustCLEVR:用于评估物体中心化学习的鲁棒性的基准和框架
通过研究对象为中心的表示学习方法,我们开展了具有专家知识根据因果依赖的图像生成过程产生各种图像破坏无法实现的鲁棒性评估,结果发现对象为中心的方法对图像破坏并不稳健,此工作在实现对复杂破坏过程下模型性能和退化更具体和有力的理解方面迈出了一步。
- 自我监督的表示学习方法能否经受分布变化和损坏?
自监督学习在计算机视觉中的鲁棒性研究调查了分布变化和图像损坏对学习表示的影响,发现较高级别的变化和损坏显著降低了学习表示的鲁棒性。研究强调了鲁棒性对自监督学习方法的性能和应用的关键影响,并强调了需要寻找有效策略以减轻其不利影响的重要性。
- 尺度的重要性:基于小波域的归因方法解释模型对图像破坏的敏感性
介绍了一个新的方法 ——Wavelet sCale Attribution Method (WCAM), 在像素域到空间 - 比例域进行了属于度量,并解释了这些模型在图像失真上失败的原因,提高了用户对模型的信任。
- 判别训练的零样本学习模型有多强大?
本文针对图像识别中常用的零样本学习(ZSL)模型的数据偏移容错问题,提出了几组解决方案,并通过新的数组合和发现的基于防御方法建立了新的衡量标准。此外,本文还提出了三组新的 ZSL 污染鲁棒性数据集,并在数据集特征、类别平衡等方面对方法的有效 - 关于数据增强与随机扰动对自然语言处理鲁棒性的影响
本文利用最小样本距离等方法,探究了数据增强和测试时图像扭曲之间的关系,并提出了测试时图像扭曲和数据增强之间的感知相似度的概念。结果表明,基于感知相似的数据增强可以提高对图像扭曲的鲁棒性,并强调数据增强在图像扭曲鲁棒性方面的重要性。
- 使用数字填色提高语义分割模型的鲁棒性
以自动驾驶为例,该论文通过数据增强技术 Painting-by-Numbers 提出了一种新的训练网络的方法,通过增加网络的偏置,使其更加注重物体形状,从而使得网络更鲁棒,在密集语义分割任务中,在 16 种不同的图片破坏和 5 种不同的网络 - 通过协变量转移适应性提高对常见数据损坏的稳健性
本研究证明:大多数图像较差的基准测试不能很好地衡量图像识别模型在许多场景下的稳健性,因此提出了一种基于非监督在线适应的方法,通过更改模型激活的统计特征来提高模型的稳健性。改进后的模型可在 ImageNet-C 数据集上取得更好的表现。
- CVPR对语义分割模型鲁棒性的基准测试
本研究的目的是针对 DeepLabv3+ 模型在语义分割应用中的鲁棒性进行全面调查,研究结果显示性能与鲁棒性有很大关系,而有些架构属性则对鲁棒性产生了显著影响。