关键词guided backpropagation
搜索结果 - 7
- 解释不确定性的合理性检查
在本文中,我们提出了用于不确定性解释方法的合理性检查方法,其中定义了用于不确定性解释的权重和数据随机化测试,可以快速测试不确定性和解释方法的组合。我们在 CIFAR10 和 California Housing 数据集上进行了实验证明了这些 - 神经网络中基于梯度的解释的不确定性量化
本文提出一个流程,通过结合不确定性估计方法和解释方法来确定神经网络解释的不确定性,使用该流程对 CIFAR-10、FER + 和加利福尼亚房屋数据集生成解释分布,并通过计算这些分布的变异系数来评估解释的置信度,结果表明使用引导反向传播生成的 - 利用卷积神经网络实现自动照片方向检测
本研究采用了卷积神经网络对图像方向检测进行研究,取得了优于同类论文的研究成果,该系统在消费级照片的检测中表现出色,并使用 Guided Backpropagation 解释其错误。
- 人工神经网络中的被动关注机制预测人类视觉选择性
通过 79 个实验和 7,810 个实验参与者的数据研究,揭示了同人类视觉选择性估计有显著重叠的被动关注技术,指出使用引导反向传播方法探测相对简单的神经网络架构产生的输入可视化是预测共享成分的最佳选择,这些结果帮助我们通过比较不同模型在图像 - 结合语义指导与深度强化学习生成人类水平的绘画
提出了一种语义引导的有效的神经网络模型,利用二级绘画过程来区分前景和背景笔画方法,并通过使用领域定位和空间转换器网络来保证前景对象的位置和比例不变,最后通过最大化基于感兴趣对象的导引反向传播来放大感兴趣对象的差异特征,从而实现了对前景对象属 - ICML基於反向傳播可視化的令人困惑行為的理論解釋
该研究解释了反向传播可视化方法(如 GBP 和 DeconvNet)的行为与特点,提出它们实质上是对图像的重建而不是与网络决策相关的,这种重建与网络的反向传播中采用的 ReLU 函数和局部连接有关。
- 走向透明化的 AI 系统:解释视觉问答模型
该论文探讨使用引导反向传播和遮挡等可视化技术,解释视觉问答(VQA)模型的工作过程,并发现即使没有显式注意机制,VQA 模型有时也会隐含地关注图像中的相关区域和问题中的适当单词。