- 基于变分分布先验和显著性地图回放的连续三维重建融合
单图像三维重建是一个研究挑战,针对从单视图图像预测三维物体形状的任务。本文提出了一种基于持续学习的三维重建方法,通过使用变分先验设计模型,即使在训练新类别后仍能合理地重建以前见过的类别。这种方法利用变分先验表示抽象形状以防止遗忘,并利用显著 - UGC 质量评估:深度基于特征的质量评估中的显著性影响探索
近年来,用户生成的内容(UGC)的数量增加了。这种类型的内容的挑战在于评估其质量。本文探讨了提取 / 组合自然场景统计和深度神经网络特征的最新度量标准,并尝试通过引入显著性地图来改善可感知性。我们使用公共数据集 YouTube-UGC 和 - DCNFIS: 深度卷积神经模糊推理系统
设计了一种新的深度网络,通过混合模糊逻辑和深度学习模型,在不降低准确性的情况下提高了透明性,并通过模糊逻辑的透明性推导出解释性的显著性图。
- MM高分辨率显著目标检测的循环多尺度 Transformer
本研究提出了一个新的高分辨率显著物体检测 (High-Resolution SOD) 方法,该方法使用 HRS10K 数据集和递归多尺度 Transformer (RMFormer) 生成高分辨率显著图。对高分辨率和低分辨率基准测试的广泛实 - SAFE:基于显著性感知的深度神经网络自动驾驶系统反事实解释
这篇论文提出了一种利用显著性地图生成更具信息量的 CF 解释的新方法,以解决当前深层生成 CF 模型中被选择特征导致的反直觉结果的问题。
- 利用人类关注度提高卡路里估算
本研究旨在研究在从食品图像预测卡路里时将人类显著性融入任务的有效性,并发现使用突出显示最高卡路里区域的注意力图可以提高 32.2%的相对改进,同时通过使用预训练模型在质量估计和食品分类任务上开始最佳模型,未能提高其准确性。但是,我们发现我们 - 教 AI 教学:将有限的人类关注数据转化为基于注意力无限制的训练
利用 “teacher-student” 训练范式可以补充有限数量的人类提供的注释,使得在构建大型数据集时可以生成任意数量的模型生成的图像注释,并且在四种模型架构和两种显著性估计方法中均表现出优异的性能。
- 基于显著性图聚类的可靠性分数,用于提高花椰菜基于图像的收获准备性预测
使用可解释的机器学习方法分析捕捉关键特征方法的可靠性,以提高深度学习对于洋花菜收割期的准确判断,在 GrowliFlower 数据集上进行实验,最终将整体预测准确性提高了 15.72%,平均类精度提高了 15.44%。
- 面部识别视觉显著性解释研究
该论文提出了一种新的人脸识别解释框架,使用基于视觉显著性的解释方法来揭示深度人脸识别模型的决策过程;并提出一种新的相关性算法(CorrRISE)来生成显著性图,可同时揭示任意给定一对人脸图像中的相似和不同区域,并设计了两个评估指标来评估人脸 - 评估隐式可解释性的后解释性
本文对基于切片图像的乳腺癌转移检测问题,将时下最流行的用于深度神经网络(DNN)可解释性的后置解释方法(Post-hoc)和内置解释方法(Intrinsic)应用于一种新的可解释性 DNN,ProtoPNet,并比较了这两种方法的兴趣图像( - CVPRODSmoothGrad: 为物体检测器生成显著图
本研究提出一种名为 ODSmoothGrad 的工具,可生成用于分类和边界框参数的显著图,并应用 SmoothGrad 算法以提高其可视化效果,应用于一阶段和二阶段目标检测器。
- 弥合鸿沟:凝视事件作为可解释概念解释深度神经序列模型
本研究旨在通过使用现有的凝视事件检测算法定量评估比较眼球运动中其不同成分的影响,从而展示 Saccades 事件对于数据集中输入特征的显著重要性, 并通过使用 Saccades 的子事件进一步研究样本的速度对于概念的影响。
- 神经网络解释方法真的好吗?量化基准测试
本文提出了一种基于合成数据集的神经网络解释方法的量化基准评估,结果表明我们的合成数据集足以挑战大多数基准方法,而 TreeShap、mRMR 和 LassoNet 是最佳表现的 FS(特征选择)方法,并且当评估少数非线性交绉的预测特征时,神 - ACAT:医学影像分类与检测的对抗性反事实关注
本文提出了一种基于显著性图的 Adversarial Counterfactual Attention(ACAT)框架,可以没有手动注释地分隔医学影像中感兴趣区域,显著提高了病灶 CT 扫描和肺部 COVID-19 相关发现的分类精度。
- CVPRIDGI: 从 Integrated Gradients 中消除解释噪声的框架
通过重视噪音源,提出了一种新的框架 ——IDGI,结合了 Reimann Integration 和 IG-based 的方法,可以在解释性指标上显著提高。
- 一种必要和充分视角下的卷积神经网络可视化解释框架
本文中提出了一种因果推断框架 SUNY,可以基于 CNN 模型的输入特征或内部过滤器作为假设原因,从必要和充分两个角度生成说明。大量评估证明,SUNY 不仅从必要和充分的角度产生更具信息量和说服力的解释,而且在大规模数据集上实现了不错的表现
- Sharp Eyes: 一种与人类视觉特征相同的显著性目标检测器
提出了一种锐眼网络(SENet)用于在多维度特征和边缘 / 骨架引导下获取完整的明显对象的聚合。 全面实验结果表明,该方法在定量和定性上均优于现有方法。
- 通过显著性地图语言化构建自然语言解释
该论文提出了一种方法将视觉化的神经网络关注热点与自然语言解释相结合,形成可读性更高的可解释性,研究表明这种方法比传统的热图可视化更易于人类理解。
- 使用与模型无关方法生成详细显著性地图
本研究关注机器学习模型的解释方法,介绍了一种基于 RISE 的改进方法 VRISE,包括使用凸多边形覆盖替代了方形遮挡,并加入信息保证生成器来提高解释准确性和加速收敛速度。实验证明,使用 VRISE 产生的沙漏图更加精确并且不需要过多的计算 - ACLUKP-SQuARE v2: 可信问答的可解释性和对抗性攻击
该研究介绍了 SQuARE v2,一种可解释性基础架构,帮助研究人员利用诸如显著性图和基于图形的解释等方法比较基于深度神经网络的问答模型,提高其可解释性、准确性和鲁棒性。