可解释人工智能需要规范的解释正确性概念
本文综述了可解释人工智能(XAI)领域内的现有文献,并对未来的研究前景进行了探讨。我们提出了一种新的可解释性定义,针对各种机器学习模型提出了分类。同时,我们讨论了XAI面临的一系列挑战,如数据融合和解释性之间的折衷等。最终,我们的观点指向了“负责任人工智能”的概念,在其中强调了AI方法在实际组织中的实施中必须保证公平性、模型可解释性和可追溯性。
Oct, 2019
机器学习模型解释学(即可解释性AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对XAI领域的科学知识的进一步贡献是必要的。
Sep, 2020
文章讨论了机器学习模型解释性和可解释性的多方面问题,并提出了12个概念性属性,如紧凑性和正确性来全面评估解释的质量。文章还提供了定量XAI评估方法的广泛概述,以及提供了创新的库和方法帮助研究人员和从业者彻底验证、基准测试和比较新的和现有的XAI方法。
Jan, 2022
本文研究机器解释符合人类交流规范、支持人类推理过程并满足人类对人工解释的需求的重要性,指出仅仅优化和评估机器解释的合理性(Explanation Plausibility)对于提高模型的可理解性、透明性与可信度是有害无益的,因此提出了一些可行的评估方法,并重点强调了可解释性特定的评估目标的重要性。
Mar, 2023
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用“可理解的人工智能”标签避免XAI的混淆。
Mar, 2024
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的XAI的模型不可知方法SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本研究探讨了可解释人工智能(XAI)在高风险领域(如医学)中的应用难点,指出现有XAI方法无法确保机器学习模型决策的可理解性和质量控制。研究发现,流行的XAI方法在属性重要性时无法可靠地关联输入特征与预测目标,建议研究者应首先明确待解决的问题并基于此设计方法,从而实现理论可验证的解释正确性概念。
Sep, 2024