反事实生成网络
在机器学习中,当训练数据受到观测或未观测到的混淆影响时,生成的关系可能会与部署时相差较大。本文提出了一种基于因果生成过程的对抗性生成方法,以最小化生成因素之间的关联性,从而生成有效对抗性数据用于训练图像分类器,即使训练数据受到高度混淆的影响。
Oct, 2022
本研究提出了一种非统计框架,它使用反事实干预来揭示由解缠组成的网络的模块化结构,以便操纵潜在表示以执行有意义和可控的变换。通过在复杂图像数据集上训练各种生成模型进行实验,表明所获得的模块可用于设计目标干预,从而在风格转换和自动评估对环境变化的稳健性等领域开展应用。
Dec, 2018
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
提出了一个统一框架,利用图像到图像转换生成对抗网络 (GANs) 生成对抗性样本,以增强可解释性,并扩充数据集以提高对抗性鲁棒性。该框架通过将分类器和辨别器结合成一个单一模型,将真实图像归类为相应的类别,并将生成的图像标记为 “伪造”,以实现这一目标。在具体裂缝的语义分割任务中,评估了方法的有效性,并在水果缺陷检测问题上评估了模型对投影梯度下降 (PGD) 攻击的鲁棒性。我们生成的显著性地图具有很高的描述性,尽管仅在分类标签上进行训练,但与传统分割模型相比,其竞争性 IoU 值表现。此外,该模型对抗性攻击的鲁棒性得到了改善,并展示了辨别器的 “伪造” 值作为预测的不确定性度量。
Oct, 2023
介绍了一种学习鲁棒视觉表示的框架,该框架能够推广到新的视点、背景和场景环境,并利用干扰因素以制造人为干预特征,从而学习更加符合基础因果关系的鲁棒表示方法。实验证明,该方法提升了多个需要超出训练分布的数据集的性能,在从 ImageNet 到 ObjectNet 数据集进行无分布推广时展现出最先进的性能。
Dec, 2020
本文提出了一种简单但有效的方法来生成可解释神经网络分类决策的反事实案例,并探索了利用生成模型构建坐标系统的方法。文章分析了生成过程并利用定量和定性措施验证了生成的反事实案例的质量。
Jun, 2022
该研究针对机器学习应用中存在的假相关问题,以图像分类为例,提出两种数据生成策略来减少此类问题,并在多个领域的数据集上表现出更好的准确性和更好的解释能力。
Jun, 2021
该论文提出了一种新的框架,通过语言引导生成对抗图片来加强分类模型。通过使用对抗图片数据集来测试模型的弱点,并将对抗图片作为增加的数据集来微调和加固分类模型,研究揭示了使用小规模对抗图片进行微调可以有效增强模型的性能。
Jun, 2024
提出使用因果生成学习作为解释图像分类器的可解释工具,利用生成对事实推理方法研究视觉特征和因果因素对分类器决策的影响,提供了针对可解释因果数据集的对抗解释方法,通过与 OmnixAI 开源工具进行对比,发现我们的方法提供的对事实解释更可解释,适用于生成高度可解释的对事实解释。
Jan, 2024
该研究提出了一种利用结构原因模型和 ALI 生成对抗学习算法,生成能满足图像属性之间因果关系约束的反事实例,用于解释和评估神经网络模型的偏差,并使用反事实正则化方法消除分类器训练数据中对皮肤和头发颜色等多维属性的偏见。
Sep, 2020