大型图像数据集中的可解释性发现
本文提出了一种方法,将传统的 CNN 转换为可解释的 CNN,以澄清 CNN 高卷积层中的知识表示。在可解释的 CNN 中,高卷积层中的每个滤波器表示某个物体部分,无需任何部件或纹理的注释就可以在学习过程中自动分配。实验表明,可解释的 CNN 中的滤波器比传统 CNN 中的滤波器更具有语义意义。
Oct, 2017
本文提出一种基于无监督学习的方法来解释大量相似图像中深度卷积神经网络的决策逻辑,并将代表性解释问题转化为一种共聚类问题,并基于线性决策边界的样本将其转化为子模代价覆盖问题。我们还提供了可视化和相似性排序方法,广泛的实验证明了本方法的优秀表现。
Aug, 2021
通过使用可解释的模型,我们研究如何从复杂图像数据中得出科学洞见,并通过实现解缠表示学习、稀疏深度神经网络训练和符号回归等方法,对复杂图像数据形成可解释的模型进行评估,以及探索这些可解释模型在揭示潜在生物现象方面的用途。
Feb, 2024
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了 CNN 表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供 CNN 对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
本文综述了解神经网络表示和学习可解释 / 解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
该论文主要探讨了如何在医学成像领域中运用深度卷积神经网络实现计算机辅助检测。作者对不同的卷积神经网络结构进行了评估,并考虑了数据集规模和图像空间背景对性能的影响。文章还阐述了将 ImageNet 预训练模型迁移到医学成像问题中的有效性,并通过两个计算机辅助检测问题的实验展示了更好的性能。
Feb, 2016
SaTML 2024 CNN Interpretability Competition 的目标是帮助人类众包工作者在 ImageNet 规模上检测卷积神经网络中的特洛伊木马,该报告展示了四个特别竞赛参赛作品的方法和结果,虽然通过可解释性工具帮助人类可靠地诊断特洛伊木马仍具挑战性,但竞赛的参赛作品为该领域做出了新的贡献并在 Casper 等人于 2023 年的基准上刷新了记录。
Apr, 2024
这篇论文介绍了一种叫做 V-CNN 的新方法,它利用数据可视化辅助卷积神经网络(CNN)对图像进行处理,并将其应用到网络入侵检测问题,得到了比传统方法更好的结果。
Jun, 2018
本文提出了一种新颖的深度学习方法,适用于解决文字描述与图片内容松散相关的情况。这种方法在多任务和迁移学习中表现良好,可以有效地检测图片来源、预测热度、插图以及文章地理位置等问题。同时,研究人员构建了一个新的语料库以供研究者使用。研究表明,该方法在新闻文章的领域中具有很强的实用性。
Mar, 2016