本文中,我们通过扩散过程生成任意 ImageNet 分类器的 DVCE,其关键在于自适应参数化以及锥形正则化,从而使得扩散过程不会收敛到微小的非语义变化,而是产生目标类的逼真图像并获得高分类置信度。
Oct, 2022
最新的视觉反事实解释方法利用深度生成模型的能力合成了高维度图像的新示例,本研究提出了一个系统的、量化的评估框架以及一组最小的指标,探索了最新的基于扩散的生成模型在自然图像分类的反事实解释方面的关键设计选择的效果,并通过产生数千个反事实解释来对各种复杂度、准确性和鲁棒性的分类器进行了一系列消融实验,为未来反事实解释方法的进一步改进和发展提出了多个方向,通过分享研究方法和解决计算挑战的方法,为该领域的研究人员提供了宝贵的指导,促进了对反事实解释的评估的一致性和透明度。
Aug, 2023
通过生成图像的方式来优化分类器结果、分析图像分类器的行为和决策、检测系统错误并可视化神经元,验证现有观察结果并发现新的错误模式或有害的虚假特征。
Nov, 2023
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
通过改进自动编码器的潜空间生成方法,该论文介绍了一种新的生成反事实解释的方法,该方法在保持输入样本特征的同时能有效地返回更接近原始数据的结果,适用于高维机器学习应用。
Jul, 2023
基于潜在扩散模型,引入了潜在扩散反事实解释 (LDCE),用以快速生成反事实实例,并专注于数据的重要、语义部分;通过新颖的共识引导机制过滤出与扩散模型的隐式分类器不一致的嘈杂、对抗性梯度,展示了 LDCE 在各种学习范式下的多样性和黑盒模型行为的理解。
Oct, 2023
通过对属性的逻辑因果关系保护,使用黑箱模型作为分类器并利用变分自动编码器生成可行的对抗性示例,本研究在不同基准数据集上实验,成功生成可行且稀疏的对抗性示例,满足所有预定义的因果约束。
Apr, 2024
提出了 VCNet-Variational Counter Net,这是一个用于回归或分类的模型架构,它能够同时生成预测和接近预测类分布的因果解释,该模型在表格数据集上的实证评估结果表明,其结果与最先进的方法相当竞争。
Dec, 2022
本文提出了一种新型的生成式反事实性解释框架,旨在生产可信度高、修改最小、保留结构的高质量图像。同时介绍了 “针对区域的反事实性解释” 概念和相应框架,通过指定图像的语义区域来指导反事实性产生,证明了该框架在高质量人像和复杂场景等数据集上的有效性。
Nov, 2021
本研究提出了一种以物体为中心的框架来生成反事实解释,该方法通过将查询图像编码到潜在空间中,以便在物体级别上进行操作,并且可以适用于驾驶场景的反事实解释基准测试,并且设计并运行了用户研究以衡量反事实解释在理解决策模型方面的有用性。
Nov, 2022