- 限距解释:理论基础与高效实施
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
- MM评估用于新生儿时间序列数据的可解释 AI 方法 Grad-CAM 进行呼吸分类
本文通过用户研究评估了 Grad-CAM 解释方法在新生儿通气数据时间序列分类的神经网络中的应用的感知有用性,揭示了实现真实透明度的困难以及许多参与者希望获得更深入解释的愿望。
- 解释解释的 XAI 未来方向
利用大型语言模型将机器学习解释转化为自然的人类可读叙述,以增强解释性和可用性。
- IJCAI相关无关性:为图像分类器生成对抗性解释
本文介绍了一种基于生成对抗网络 (GAN) 的方法,用于生成可以解释神经网络黑盒模型的替代性解释,进一步通过用户研究验证了替代性解释与反事实解释相辅相成。
- 人机协同的可解释界面:一项综述
本文从以人为中心的角度对人工智能可解释性界面在人工智能增强的人机协作系统中的透明性挑战进行了深入研究,并提出了一个用于评估该界面的新框架。通过在可解释人工智能、人机协作以及人机交互等领域进行广泛调查,该研究提供了多个新见解,探讨了将可解释人 - 审视显著图的常规检查
我们提出了两种对原始测试的修改:平滑 MPRT 和高效 MPRT。前者通过采样减少噪声对评估结果的影响,后者通过完全模型随机化后解释复杂性的增加来避免对相似性测量的有偏倚需求。我们的实验证明这些修改提高了度量信度,更可靠地部署解释方法。
- MBTI 类型的可解释性多标签分类
本文旨在确定最有效的机器学习模型,以准确地从 Reddit 帖子和 Kaggle 数据集中对 Myers-Briggs 类型指标(MBTI)进行分类。我们应用多标签分类和二元关联方法,并使用可解释的人工智能(XAI)方法突出流程和结果的透明 - 一种可解释和符合性的 AI 模型用于检测患有儿童特发性关节炎的颞颌关节受累
实施可解释人工智能模型用于帮助临床医生评估儿童颞下颌关节受累,结果表明该模型能在两年内准确识别早期疾病且作为决策支持工具具有潜力。
- KDDFiper: 结合规则和特征重要性的基于视觉的解释
人工智能算法在多个高风险领域中已变得无处不在,但其内部逻辑可能对于人类而言难以理解。可解释的人工智能旨在设计工具和技术,以说明所谓的黑匣子算法的预测。人机交互界长期强调对可解释人工智能采用更加以用户为中心的方法的需求。本文提出了一种基于可视 - T-Explainer: 基於梯度的模型无关解释性框架
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
- 智能家居环境中实现以人为中心的可解释性:解释 AI 决策
智能家居系统中智能决策模型的可解释人工智能(XAI)方法对于开发者和从业者有益,但普通用户尤其是家庭成员可能很难理解。本文提倡以人为中心的 XAI 方法,强调提供易于理解的解释以增强用户满意度、推动智能家居系统的采用。通过对两个智能家居应用 - 基于深度学习和符合预测的稳健废铁材料分类
本文介绍了如何利用一种称为 Split Conformal Prediction 的方法结合计算机视觉模型,如 Vision Transformer、Swin Transformer 和 ResNet-50,并加入可解释人工智能方法,用于在 - LLM 模型的概念归纳:用于评估的用户实验
通过利用 GPT-4 的领域知识和常识能力,我们探索了大型语言模型在图像分类特定环境中生成高级概念作为人类解释的潜力,并通过人类研究评估了其有效性。
- 基于 CNN 的解释集成用于数据集、表示和解释评估
通过合并深度分类模型生成的解释,研究人员探索了可解释人工智能的潜力,以揭示模型行为的更一致和可靠的模式,进而评估模型所学到的表示。使用选定的 Quantus 库评估指标,证明该方法在本地化和可信度方面的性能优于单个解释。
- 超越一刀切:将反事实解释适应用户目标
解释性人工智能 (XAI) 是一项关键研究领域,旨在增强人工智能系统的透明度和解释性。反事实解释 (CFEs) 通过探索某些因素不同的替代情景,为机器学习算法的决策过程提供有价值的洞察。本文主张细致理解 CFEs,了解用户目标和目标应用的多 - 解开人工智能错误之谜:探索大型语言模型的人工和机器解释的有效性
本研究通过与最新方法(集成渐变、保守 LRP 和 ChatGPT)进行对比实证调查,收集和分析了 156 个人生成的文本和基于显著性的解释,并发现与机器显著性图相比,人工显著性图尤其在解释人工智能结果时更具说明性,但其性能与对人工智能模型和 - 概念关注白化对于可解释性皮肤病诊断的应用
通过引入 Concept-Attention Whitening(CAW)框架,我们提出了一种用于解释性皮肤病变诊断的新方法。CAW 不仅提高了可解释性,还保持了最先进的诊断性能。
- 提高乳腺癌诊断在乳房 X 射线摄影中:卷积神经网络和可解释人工智能的评估和集成
通过将卷积神经网络(CNN)和可解释人工智能(XAI)相结合的综合框架,该研究在使用 CBIS-DDSM 数据集进行增强的乳腺癌诊断方面进行了介绍。研究结果显示,CNN 和 XAI 的有效合作有助于推进乳腺癌的诊断方法,从而在临床设置中更无 - 知识图谱上可理解的人工智能:一项概述调查
了解可理解的人工智能应用于知识图谱的历史、区分和研究现状,并识别未来研究的空白。
- 模糊规则库的语言描述的自动提取
神经模糊系统是一种可解释人工智能(XAI)技术,将知识模型化为一组模糊规则,利用模糊集来模拟语言术语,本文介绍了一种自动提取自然英语中模糊规则的方法。