可视化物体检测特征
本文提出了一种新的方法,用于可视化和理解神经网络输出层之前的向量空间,旨在揭示分类任务下的深层特征向量属性,特别是过拟合现象在特征空间中的本质和其对进一步应用的负面影响,并对其进行了真实应用场景的评估,证明了其突出性能优势。
Jun, 2020
本文提出了一种新的对抗攻击方法,通过扰动表示样式的抽象特征,包括可解释和不可解释的风格,诸如鲜艳色彩和锐利轮廓等,通过优化程序注入难以察觉的风格变化,实现深度神经网络模型误分类,我们展示了该方法产生的对抗样本比现有的非受限制攻击更加自然,并支持现有的像素空间的对抗攻击检测和防御技术难以在风格相关特征空间中保证模型的鲁棒性。
Apr, 2020
该论文提出了一种用于从分类器的内存中提取每个类别的印象的数据无关方法,通过一种基于显著性驱动的可视化方法展示了深度学习分类器在训练数据中提取的判别特征,帮助提高生成图像的置信度。
Jul, 2020
通过基于深度特征的高维统计建模,以减少虚假报警的数量,提出了一种方法不可知的弱监督的 a-contrario 验证过程,并结合像素和对象级别的评估指标对六种方法和多个数据集中的序列进行了评估,实验证明该方法能够显著减少像素和对象级别上的虚假报警。
Jul, 2023
本文探讨深度视觉表示能力在不同类型图像畸变中的表现,通过分析不同深度神经网络层所提取的特征,证明不同网络层具备分离不同畸变类型的能力,并评估特征在图像质量评估和畸变特征和严重性级别刻画上的应用,结果表明深度视觉表示具有有效地表征各种图像畸变的能力。
Feb, 2020
通过研究深度神经网络在图像分类和学习方面的成功,我们开发了方法和公式来研究模型中的特征空间,以此去理解决策边界在特征空间和像素空间中的几何构成和所带来的影响,进一步探讨其对对抗性漏洞、图像变形、外推,模糊分类以及数学上的理解等方面的启示。
Feb, 2022
本文采用正交特征变换的方式将图像特征映射到三维空间,从而让我们能够在一个具有一致尺度和可推断真实距离的领域中全面考虑场景的空间配置,运用于端到端的深度学习架构中,在 KITTI 3D 物体基准测试上实现了最先进的性能。
Nov, 2018
本研究利用背景删除技术作为强健训练的方式,探索性地修改了训练过程,从而提高了黑盒子机器学习模型特征可视化的解释能力,并验证了此假设通过四种不同的训练方法。图像的特征可视化结果表明,使用背景删除图像比使用未修改数据的模型的改进更为显著。
Jun, 2023
通过对神经网络内部运作方式的可解释性实现可靠功能的可视化是建立在可重复连通性的基础之上,因此我们需要发展更可靠的特征可视化方法解释神经网络处理自然图像的能力。
Jun, 2023