可解释的预测机器学习工件的设计:方法和实际演示
这篇报告对数据驱动方法 - 特别是机器学习和模式识别模型进行了综述和总结,以便于业界从业者和数据科学家更好地理解 “可解释的人工智能” 的领域并应用正确的工具。
Sep, 2020
该综述论文提供了解释性监督机器学习的基本定义、原则和方法,并对过去和最近的解释性机器学习方法进行了分类和综述。通过解释性案例研究阐明了原则,并讨论了重要的未来方向。
Nov, 2020
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
Aug, 2022
该论文通过 PRISMA 框架对机器学习模型的可解释性和可解释性进行了系统的文献综述,重点研究了在预测性过程挖掘中使用复杂业务流程数据训练的机器学习模型的解释挑战,区分了内在可解释模型和需要事后解释技术的模型,并全面概述了当前方法在各应用领域的应用及其应用。通过严格的文献分析,该研究对预测性过程挖掘中的可解释性和可解释性状况进行了详细综合,识别了关键趋势、挑战和未来发展方向。研究结果旨在为研究人员和实践者提供更深入的了解,以开发和实施更可靠、透明和有效的智能预测性过程分析系统。
Dec, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
介绍了通过解释性表现组合、数据采样和解释生成构建和评估定制模块化替代解释器的过程的手册,以帮助了解人工智能和机器学习算法的可解释性技术。
Sep, 2022
本研究探讨企业机构如何使用可解释机器学习来提供给利益相关者洞察模型行为,发现目前解释主要面向机器学习工程师,而不是受到模型影响的最终用户,存在内外部利益相关者的差异。研究综合分析了当前解释技术的局限,提出了促进最终用户交互的可解释性目标框架,并讨论了相关的问题。
Sep, 2019
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017