- 深度学习解释和类激活图的集成特征分析
为了更深入了解深度学习模型提取的中间特征,我们提出了一种综合特征分析方法,通过特征分布分析和特征分解来探索模型对数据集的影响,并提供了一种常用强度标尺的分布信息,以解决当前 CAM 算法中缺失的信息,验证了该方法的可靠性和相对简洁性。
- 基于 CAM 的方法能穿墙
CAM-based 方法是广泛使用的事后解释性方法,通过生成热点图来解释图像分类模型的决策。在本文中,我们展示了大部分这些方法可能会错误地将重要分数归因于模型无法看到的图像部分。我们从理论和实验两方面分析了该现象,并通过两个新数据集进行了定 - LLM 对幻觉是否有了解?LLM 隐藏状态的实证研究
大型语言模型 (LLMs) 可能会产生虚假答案,本研究旨在探讨 LLMs 是否知晓此虚假现象,并研究其反应和程度。通过实验框架检查 LLM 在回答问题和产生虚假回答时的隐藏状态差异,并得出实证发现发现,LLMs 在处理真实回答和虚假回答时有 - 通过文本解释解读和控制视觉基础模型
基于大规模预训练视觉模型,如 CLIP,的本文的研究主要集中在模型的解释和控制,通过理解模型的潜在令牌和进行模型编辑来改进模型的推理行为和鲁棒性。
- TMPNN:基于 Taylor 映射分解的高阶多项式回归
基于泰勒映射因式分解的高阶多项式回归方法实现了多目标回归,并能捕捉目标之间的内在关系。通过在 UCI 等开放数据集上进行基准测试,该方法表现与现有回归方法相当,并在特定任务上表现优异。
- ICML通过路径归因实现可信的视觉模型解释
通过系统的研究,我们发现了适用于深度视觉模型的路径归因策略的反直觉结果的条件以及使其不失公理性质的方案,进而提出了一种可靠的视觉模型解释方法并在多个数据集、模型和评估指标上进行了实证验证,表现出与基准方法相比的一致性性能增益。
- FICNN:深度卷积神经网络解释框架
本文提出了一种卷积神经网络模型解释框架,指出了模型解释和解释任务的差异,定义了用于表征解释方法的六个因素,并讨论了现有解释方法和评估协议对它们的验证,以及提出了可能出现的研究问题。
- 用于可解释机器学习模型开发和验证的 PiML 工具箱
PiML 是一种 Python 工具箱,支持数据处理、模型训练、模型解释、解释性调试等机器学习流程,并支持可解释模型和模型无关的解释工具,用于确保质量。
- AAAI重新思考解释:深度视觉分类器的输入无关性显著性映射
本文提出了一种新的输入无关的显著性地图方法,它从计算上估计模型对其输出所归属的高级特征并通过可解释的可视化展示,以更加准确和公正地解释模型的行为,同时在大规模模型中成功应用,并且通过识别受损分类器中的后门签名,展示了这种新形式显著性映射的另 - ExBEHRT:基于扩展 Transformer 的电子健康记录预测疾病亚型与进展
本研究引入了 ExBEHRT,这是对 BEHRT(应用于电子健康记录的 BERT)进行扩展的一种算法,通过应用不同算法来解释其结果,将特征空间扩展到多个多模态记录,并在不同疾病的各种下游任务中表明附加功能显著提高了模型性能,同时通过对肿瘤患 - CoRTX: 实时解释对比框架
本文提出了一种 COntrastive Real-Time eXplanation (CoRTX) 框架,通过设计一种合成策略在模型解释任务中进行对比学习,从而解决了实用中训练模型解释的难题。实验结果在三个真实数据集上证明了该框架的高效性和 - EMNLP充电预测模型是否学习了法理学?
本文探讨了信任的罪名预测模型应该考虑法律理论,并提出了三个原则:敏感、选择性和推定无罪。作者设计了一个新的框架来评估现有的罪名预测模型是否学习了法律理论。结果表明,虽然现有的罪名预测模型在基准数据集上满足选择性原则,但它们大多数仍不够敏感, - 多模式医学图像的图卷积网络:方法、架构和临床应用
本综述论文介绍了基于图卷积网络(GCN)的医学图像分析的最新研究进展,包括放射学和组织病理学数据,讨论了 GCN 在疾病诊断和患者康复中的应用,以及其在模型解释、大规模基准测试等方面的技术挑战和发展趋势。
- 特征重要性方法对缺陷分类器解释的影响
本文通过针对 18 个软件项目和 6 个常用分类器的案例研究,评估了该研究中的 CS 和 CA 方法计算的特征重要性排名之间的一致性,发现不同的特征重要性方法计算相同数据集和分类器的特征重要性排名可能存在巨大差异,因此需要提出一些指南以及未 - 层次代理规则集在机器学习模型行为可视化探索中的应用
本研究提出了一种包括层级代理规则和可交互的代理规则可视化的工作流程,用于解释模型。使用可视化方法来解决规则可视化的问题,并评估了算法的参数灵敏度和时间性能,以及可用性研究。
- 深度神经网络计算机视觉中的黑盒错误诊断:工具综述
本论文调查了支持黑匣子性能诊断范式的工具,以深度神经网络为基础,探讨了模型行为和预测误差的诊断过程,并讨论了相关研究方向和除 CV 外的诊断工具的简要概述。
- KDD自动分量提升:可解释性自动机器学习系统
提出了一种 AutoML 系统,其构建了可解释的加法模型,使用高度可扩展的分量提升算法进行拟合,提供了易于模型解释的工具,并且在预测性能上与其他基于 AutoML 比较系统相媲美,更易于使用和透明。
- 利用稀疏线性层进行可调试的深度神经网络
本研究通过在深度特征表示上拟合稀疏线性模型,证明可以得到更易于人类解释的神经网络,并通过数值和人类实验量化地展示了这一点。我们进一步说明这些稀疏解释如何帮助在视觉和语言任务中识别虚假相关性、解释误分类并诊断模型偏见。我们的工具包的代码可以在 - FastIF:面向高效模型解释和调试的可扩展影响函数
通过引入 k - 最近邻算法、快速并行变量和逆 Hessian 向量积的配置,在不牺牲性能的情况下大大提高了影响函数的运行时间,从而为模型解释和纠正模型错误等领域提供了潜力。
- 深度学习在医学异常检测中的应用 — 综述
本论文的主要目的是针对机器学习在医疗异常检测中的应用进行理论分析,提供关于流行的深度学习技术的全面的系统性回顾,比较和对比它们的架构差异和训练算法,并提供了用于解释模型决策的深度模型解释策略的综合概述。此外,指出现有深度医疗异常检测技术的主