统一视角:全球、群体和局部级别上的合理反事实解释
提供全局反事实解释问题的简洁表述并建立了比较解决方案的原则标准,使用聚类和决策树作为关键组件的创新算法解决全局反事实问题,并通过与其他方法的综合实验评估验证了算法的能力。
May, 2024
解释性人工智能 (XAI) 是一项关键研究领域,旨在增强人工智能系统的透明度和解释性。反事实解释 (CFEs) 通过探索某些因素不同的替代情景,为机器学习算法的决策过程提供有价值的洞察。本文主张细致理解 CFEs,了解用户目标和目标应用的多样化需求,以设计更有效且量身定制的解释,以满足用户的特定需求,从而提高与人工智能系统的协作。
Apr, 2024
提出了一种名为 GLOBE-CE 的灵活框架,旨在解决当前解释性方法中与可靠性和可扩展性有关的问题,并在针对高维数据集和连续特征存在的情况下提供全局和高效的反事实解释,通过公开可用的数据集和用户研究进行了评估,证明了该框架在速度、可靠性等多个指标上明显优于当前先进技术。
May, 2023
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE 在接近度、稀疏度和可行性方面胜过两种著名的 CE 方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
本研究旨在评估计算合理性和心理合理性之间的差异,结果表明,心理学合理性与计算合理性之间存在巨大差异,特别是在处理详细的模型解释时,需要考虑人类行为,偏好和心理模型,以在 XAI 的设计阶段获得更好的用户体验。
May, 2022
研究提出一种新方法 PlausIble Exceptionality-based Contrastive Explanations (PIECE),用于生成黑匣子 CNN 分类器的可信反事实和半事实,称其比文献中的其他方法生成最可信的反事实和半事实。
Sep, 2020
本文探讨了 AI 系统中基于反事实进行的解释在实际应用中所带来的影响以及其引发的因果信念变化,通过实验证明了提供 AI 系统预测的反事实解释会影响人们对于该预测所关联的特征是否具有因果性的判断,其结果表明指出 AI 系统只能捕捉到相关关系而非因果关系可以减轻其影响。
May, 2022
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022