通过生成对抗网络的潜在遍历,为卷积神经网络提供视觉解释
本文介绍了一种新方法,使用条件生成对抗网络(GAN)通过信息传递学习卷积神经网络(CNN)的图像处理和预测,同时解决了如何将信息传递到 GAN 的挑战和如何有效地训练 GAN 的问题,该方法通过中间层的平均交互地图来表达 CNN 的结构,通过两种交互方案的对比得出了 GAN 可有效解释 CNN 从而提高图像处理的实现效率。
Jan, 2023
该论文提出了一种新颖的概念学习框架,用于增强视觉分类任务中模型的可解释性和性能,通过将非监督解释生成器附加到主分类器网络中,并利用对抗训练的方式,使模型从潜在表征中提取视觉概念并与人可解释的视觉属性隐式对齐,该方法的实验结果验证了其稳健性和产生一致的概念激活,同时研究了对抗训练协议中的扰动对分类和概念获取的影响,从而实现了构建具有任务对齐概念表征的内在可解释深度视觉模型的显著进展,为开发可信任的用于真实感知任务的人工智能提供了关键支持。
Jan, 2024
本篇研究提出了 MedXGAN,一种新型医学影像生成敌对网络框架,通过编码医学影像领域知识,能够梳理出解剖结构和病理,从而实现隐变量插值的精细可视化。并且其在定位和解释方面表现优于 Gradient-Weighted Class Activation Mapping 和 Integrated Gradients 等基线方法。
Apr, 2022
通过使用生成对抗网络进行病理图像的模拟,摆脱常见医疗问题过度呈现和罕见条件数据匮乏等问题,将生成的图像和真实图像结合,使用 DCNN 检测肺部 X 光片的五个类别,通过生成的图像均衡数据集,DCNN 的性能得到了提高。
Nov, 2017
该论文提出深度卷积生成对抗网络(DCGANs)可以用于无监督学习,通过在各种图像数据集上的训练,证明了 DCGANs 能够学习从物体部分到场景的表示层次结构,并且可以用于一般图像表示。
Nov, 2015
本研究提出一种基于医学概念的可解释卷积神经网络框架,可用于识别超声标准平面,并构建关键医学概念之间的关系,从医生的认知角度解释,并在实验中取得了实质性的解释性能提升。
Jan, 2022
本文提出了一种分析框架,旨在通过单元、对象和场景级别的可视化来理解生成对抗网络的内在表示,揭示其形成图像的因果关系,探究其结构选择对 GAN 学习的影响,提出了移除图像错乱因素的方法,并提供开源的理解工具。
Nov, 2018
该研究提出使用生成对抗网络(GAN)来 “合成” 零样本类别的 CNN(卷积神经网络)特征,从而应对通用零样本学习任务中已有的数据不平衡问题。实验结果表明,该方法在多个数据集上的表现均显著优于现有方法。
Dec, 2017