基于 XAI 的对抗攻击检测深伪检测器
通过实验证明通用的插入 / 删除解释型人工智能(XAI)评估方法并不适用于深伪造检测模型,并提出并实现了一种专门适用于深伪造检测模型的 XAI 评估方法。
Dec, 2023
该论文对 50 多篇与机器学习模型解释袭击和公正性度量有关的研究进行了简要综述,并讨论了如何防御攻击和设计稳健的解释方法。该论文提出了现有 XAI(可解释人工智能)不安全因素的列表,并概述了 Adversarial XAI(AdvXAI)的新兴研究方向。
Jun, 2023
本研究提出了一种名为 Ensemble XAI 的新型可视化解释方法,它整合了显著性地图、类激活映射和渐变 - 类激活映射,以提供更全面的可视化解释,用于预测输入是否为伪造的仿制品的深度学习预测模型。通过实验评估,该解释方法可以准确地说明深度学习模型的决策过程。
Apr, 2023
本文发现了一个问题:通过微调输入图像,我们可以演示图像识别的解释方式可以通过进化策略对其进行任意操作。通过我们的 Adversarial XAI 算法 AttaXAI,我们能够在不使用梯度或其他模型内部的情况下,成功地在黑盒设置下操作解释方法,从而实现了对图像做微小改变却使 XAI 方法输出特定解释的目标。
Nov, 2022
通过解释性人工智能方法,我们分析深度学习分类器的推理过程,揭示其偏差,并设计了一个去除偏差的上下文感知检测系统,保持了最先进深度学习分类器的检测率,并提出了一个可视化分析系统,增强了对检测方法的理解、信任和透明度,促进决策制定。
Jul, 2023
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
该论文提出了一个使用可解释人工智能技术方法来自动提升预训练深度学习分类器性能的通用框架,避免了重新训练复杂模型所带来的计算开销,通过两种不同的学习策略,自动编码器和编码器 - 解码器,来实现这一架构。
Mar, 2024
我们提出了一个集成的过程,用于验证 AI 模型的准确性、评估其鲁棒性以及比较解释效用,并展示了六种计算机视觉模型在不同扰动和 XAI 方法下的评估结果。
Jan, 2024
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
本文讲述了近年来视频技术的进步使得生成假视频变得比以往更容易,同时也提到人工智能生成的 Deepfake 视频可以通过对抗性修改来欺骗现有的检测器并且具有实际威胁。研究者在本文中提出了可以误导 DNN 检测器认为 Deepfake 视频为真实的白盒和黑盒攻击方案。
Feb, 2020