DAM:3D 全局解释的扩散激活最大化
利用激活流(activation flows)基于点云模型,我们提出了一种可感知的全局解释方法,与不基于生成模型的其他激活最大化方法相比,我们的方法极大地增强了解释的可感知性。
Apr, 2024
本研究提出了基于 DDPM 的 change-aware diffusion model (CADM) 模型,使用有限的标注数据快速训练,采用动态差分条件编码来增强 bitemporal change detection 任务中的区域注意力,实验结果表明相对于现有模型表现显著更优,充分说明了该模型的泛化性和有效性。
Jun, 2023
DiffExplainer 是一个利用语言 - 视觉模型实现多模态全局可解释性的新型框架。DiffExplainer 根据优化的文本提示条件化扩散模型,合成最大化分类器的类输出和隐藏特征的图像,从而提供视觉工具来解释决策。此外,对生成的视觉描述的分析允许自动识别偏见和虚假特征,与常常依赖手动干预的传统方法相反。语言 - 视觉模型的跨模态可转移性还使得更容易用文本描述决策。我们进行了广泛的实验,包括广泛的用户研究,证明了 DiffExplainer 在生成解释模型决策的高质量图像方面的有效性,超过了现有的激活最大化方法,并且在自动识别偏见和虚假特征方面也取得了成功。
Apr, 2024
本文使用文本像素聚合对 Stable Diffusion 进行图像生成的文本图像归因分析,将此方法命名为 DAAM,应用于像素空间中的句法角色特征描述,在协 NECT 模式下发现同义词对生成质量有害,其中形容词描述过于广泛。
Oct, 2022
本文提出一种名为 ODAM 的可视化解释技术,通过利用检测器目标流入的梯度产生热图,展示每个预测属性对检测器决策的影响,提高了模型的解释能力并进行了相应的实验证明。同时进一步提出了训练方案 Odam-Train 和 Odam-NMS,通过对模型预测信息和解释进行处理,可以提高模型在重复检测物体时的表现。
Apr, 2023
基于扩散模型的评论生成为可解释的推荐提出了一种名为 Diffusion-EXR 的方法,并展示了其在两个公开基准数据集上能够达到最先进的评论生成效果。
Dec, 2023
我们提出了一种基于特征因子化激活图(FFAM)的方法,用于生成 3D 探测器的高质量视觉解释,通过非负矩阵分解生成概念激活图,并使用目标对象的特征梯度来改进全局视觉解释,同时引入体素上采样策略来对齐激活图与输入点云的尺度,实验证明 FFAM 可以产生高质量的视觉解释。
May, 2024
提出了一个名为 DDAM-PS 的勤奋领域自适应混合模式的 Person Search 框架,旨在通过结合源领域和目标领域表示来改善知识转移,具有良好的性能和可扩展性。
Oct, 2023
深度神经网络的解释性方法是关键组成部分,用于检查和探索神经网络,增加我们对其的理解和信任。我们介绍了一种高度敏感于目标类别的后期解释方法,即类别判别性注意力图(CDAM),它通过缩放注意力分数来确定相应的令牌对分类器预测的相关性。与像素遮蔽方法相比,CDAM 具有高度的类别区分性和语义相关性,同时提供了隐式的相关性评分正则化。
Dec, 2023
拟议了两种方法:Feature Attention 和 FDAF,将从扩散模型中提取的特征图进行语义上有用的操作;在 LEVIR-CD 数据集上,使用 Feature Attention 的模型获得了 F1 值(90.18)和 IoU 值(83.86)的最新成绩。
Mar, 2024