SHIELD:可解释人工智能的正则化技术
本文研究机器学习模型的解释方法对模型可解释性方面的影响,通过两类涉及文本和表格数据的模拟测试,评估了五种解释方法的有效性,表明模型可模拟性在分类表格方面使用LIME可以得到改善,而我们的Prototype方法在反事实的模拟测试中也是有效的。本文的结果显示,我们需要对评估解释方法的指标进行谨慎处理,并且当前方法仍有很大的改进空间。
May, 2020
文章讨论了机器学习模型解释性和可解释性的多方面问题,并提出了12个概念性属性,如紧凑性和正确性来全面评估解释的质量。文章还提供了定量XAI评估方法的广泛概述,以及提供了创新的库和方法帮助研究人员和从业者彻底验证、基准测试和比较新的和现有的XAI方法。
Jan, 2022
本文利用元学习技术,通过优化解释,使得学生模型更有效地学习模拟原始模型,探讨了提供解释的明确目标及其实现方法,在三个自然语言处理和计算机视觉任务中, 通过人类注释和用户研究,发现我们提取的解释与人类解释更加贴近。
Apr, 2022
该论文介绍了概念相关传播 (CRP) 方法,该方法结合了本地和全局 XAI 的观点,从而允许回答单个预测的“何时”和“何物”的问题,而无需施加其他限制。作者进一步介绍了相关性最大化的原则,以找到编码概念的有用代表性示例。作者演示了该方法在各种不同的设置中的能力,展示了概念相关传播和相关性最大化如何通过概念地图、概念组合分析和概念子空间的量化调查及其在细粒度决策中的作用,提供更人性化的解释和深入的模型表示和推理见解。
Jun, 2022
本文提出了一个元评估框架MetaQuantus,以较可靠的方式鉴别不同解释质量度量方法在特定的解释情境下的性能,包括其对噪声的鲁棒性和对随机性的反应性,并通过一系列实验展示了其有效性。该工具可用于验证和基准测试新建构的度量衡,从而为建立可靠的方法提供清晰的、理论上的指导,以促进Explainable AI领域中的标准化和可重复性。
Feb, 2023
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的T-Explainer成为了一种有效的特征归因方法。
Apr, 2024
人工智能方法的黑箱特性引发了对可追溯性和可信赖性的担忧,解释性人工智能(XAI)领域因此而兴起。本文介绍了XAI,并回顾了目前用于解释机器学习模型的各种技术。重点探讨了如何在XAI中应用进化计算(EC)以及将EC技术融入XAI的一些方法。此外,我们还讨论了在EC本身中应用XAI原则的可行性,研究了这些原则如何揭示EC算法的行为和结果,算法的自动调优,以及算法优化的潜在问题。最后,我们讨论了XAI领域存在的一些挑战和未来研究中利用EC的机会。我们旨在证明EC非常适合解决可追溯性的当前问题,鼓励进一步探索这些方法,以促进更透明和可信赖的机器学习模型和EC算法的发展。
Jun, 2024