- CONFINE:可解释神经网络的拟合预测
通过引入适应性神经网络的可证估计预测模型,CONFINE 可以增强模型透明度和可靠性,并提供基于样例的解释和置信度评估,从而提高模型准确性。
- 准确故障检测和诊断的可解释人工智能技术综述
制造业中的深度学习模型的不透明性对故障检测和诊断构成了重要挑战。本文对可解释人工智能(XAI)的工具和技术进行了综述,探讨了各种 XAI 方法在增加人工智能决策透明度方面的作用,特别是在涉及人类的关键情景中。同时,我们还讨论了当前的局限性以 - COLING句法跨度偏好在事后解释异议中的作用
通过研究不同解释方法对词汇重要性的选择差异,我们发现选择不同类别的词汇会导致方法的分歧,而与其他方法和人类的最一致的方法更倾向于选择类似的语言偏好,通过在句法范围级别上比较可以减少方法间的差异,通过动态预估最重要的范围而不是依赖于固定的部分 - 提升联邦学习系统中的数据溯源和模型透明度 - 一种数据库方法
该论文提出了一个方法,通过使用密码学技术和高效的模型管理,来增强联邦学习系统中数据的来源和模型的透明度,旨在增强训练后模型的可重现性和可信度,从而解决数据一致性和解释性的问题。
- 可解释性全球野火预测模型基于图神经网络
利用基于图神经网络(GNN)的混合模型,我们通过将全球气候和野火数据表示为图形,解决了传统模型中存在的空洞海洋数据位置和远程相关性的挑战,并且在未见过的 JULES-INFERNO 模拟数据集上展示出卓越的预测准确性。此外,通过社区检测和集 - 从理解到应用:关于大型语言模型可解释性的调查
本文探讨大型语言模型(LLMs)的可解释性领域,强调了增强 LLMs 可解释性的必要性,重点关注预训练的基于 Transformer 的 LLMs,如 LLaMA,以及改善模型透明度和可靠性的解释性方法和评估方法的分类与讨论。
- 学习可推广基于概念的模型的辅助损失
我们通过引入概念瓶颈模型(CBMs)和合作 - 概念瓶颈模型(coop-CBM)以及概念正交损失(COL),在各种分布转移设置下的实验中,提出了一种提高神经网络透明度和性能的方法。
- 特征激活:一种全局显著性的稀疏信号视角
介绍了一种称为 Signature Activation 的方法,用于通过对 CNN 输出进行整体和类别无关的解释,以提高机器学习在医疗保健中的可解释性,并通过在冠状动脉造影图中辅助损伤检测的效果评估,展示了该方法在临床环境中的潜在应用。
- 稀疏自编码器发现语言模型中的高度可解释特征
使用稀疏自编码器识别语言模型内部的方向,以消除超级位置现象,并达到模型的透明度和可操控性。
- 原型在时间序列异常检测中的解释作用
该论文提出了一种名为 ProtoAD 的模型,使用基于示例的原型来解释深度模型中的正常模式状态,旨在提高深度模型的透明度和可理解性,进一步提高异常检测的精度和性能。
- 分发协同功能:统一博弈论交互方法以实现机器学习可解释性
本文介绍了一种基于博弈论的归因和 k 阶相互作用方法的统一框架,重点是解释和解释模型的透明性。作者指出,各种方法都基于其在协同方案中的政策,并介绍了基于梯度的独特方法。最后,作者提出了需要深入了解归因和交互方法的目标和上下文。
- 卷积神经网络的量化语义比较
本篇论文提出两种方法来量化 CNN 潜在空间中语义信息的相似度,以解决模型透明性问题。通过将这些方法应用于三种不同的目标检测器和两个数据集,我们的研究表明相似的语义概念是在所有 CNN 体系结构中学习的,且相似的概念出现在相似的相对层深度中 - 设计理解:支持使用 AI 提升用户体验的设计构思的模型透明度所需的信息
该研究探讨了透明性模型报告框架是否能够支持预训练模型的设计构思,并确定了 UX 设计师在预训练模型的理解方面需要透明性信息。
- 人工智能中人类价值的代理机构之间的紧张关系
我们认为社区旨在减轻技术的潜在危害影响,通过定义公私保密、公平和透明模型等一些责任支柱作为指标是根本错误的,因为这些定义是人类价值的不完美、独立构建,而带着那些价值完全嵌入我们的技术的幌子。我们推动 AI 社区重新考虑某些支柱公式的选择带来 - ICML利用可解释的人工智能来提高神经网络的性能
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-bas - Python 中使用 dalex 进行负责任机器学习、交互式可解释和公平性
本研究讨论了预测模型在预测、公平性和一致性方面的问题,介绍了一个名为 'dalex' 的 Python 包,提供了对机器学习模型的交互式探索,以实现深度透明度和合理的机器学习模型。