可解释的预测过程监控:用户评估
该论文通过 PRISMA 框架对机器学习模型的可解释性和可解释性进行了系统的文献综述,重点研究了在预测性过程挖掘中使用复杂业务流程数据训练的机器学习模型的解释挑战,区分了内在可解释模型和需要事后解释技术的模型,并全面概述了当前方法在各应用领域的应用及其应用。通过严格的文献分析,该研究对预测性过程挖掘中的可解释性和可解释性状况进行了详细综合,识别了关键趋势、挑战和未来发展方向。研究结果旨在为研究人员和实践者提供更深入的了解,以开发和实施更可靠、透明和有效的智能预测性过程分析系统。
Dec, 2023
LORELEY 是一个可解释的 AI 技术,在预测业务流程监控中提供了可接受的对事实解释以及对事实的否定解释,根据业务流程监控中的控制流约束生成了逼近预测模型并且生成逼真的反事实解释。
Feb, 2022
本文提出了一种解释性度量方式并应用于基于过程的结果预测领域,然后通过对 13 个现实事件日志的实验测试七个分类器和可解释技术,提供了一个名为 X-MOP 的指南,以选择合适的模型。
Mar, 2022
本研究探讨了如何在可靠和透明的决策机制中集成不确定性量化和模型可解释性方法,以促进可信的业务和运营过程分析。研究了如何在全局和本地后验解释方法中有效地传达模型不确定性,并检查了适当的可视化分析方法以促进方法论的集成。所提出的方法和界面也得到了专家的反馈。
Apr, 2023
本文介绍了一个多阶段综合的机器学习方法,有效地将信息系统和人工智能相结合,以增强操作研究领域内的决策过程的效力。该方法能够解决现有解决方案的常见限制,例如忽略关键生产参数的数据驱动估计、仅生成点预测而不考虑模型不确定性以及缺乏关于不确定性来源的解释。我们的方法利用分位数回归森林生成间隔预测,同时采用了局部和全局版本的 SHapley 加性解释,用于研究预测过程监测问题。通过一个实际的生产计划案例研究,我们证明了所提出方法的实际适用性,强调了规范分析在完善决策程序方面的潜力。本文强调了解决这些挑战以充分利用广泛和丰富的数据资源来进行明智决策。
Apr, 2023
通过两项用户实验,本研究旨在提供实证证据,以解决机器学习算法的性能和可解释性之间的权衡问题,并发现其在最终用户的感知中的权衡程度相对较低,其取决于数据复杂性等情况,并根据第二项实验的结果,也发现了可解释性人工智能的增强手段是提高解释性的一种途径,但解释的类型对最终用户的印象起着至关重要的作用。
Jun, 2022
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
本研究探讨企业机构如何使用可解释机器学习来提供给利益相关者洞察模型行为,发现目前解释主要面向机器学习工程师,而不是受到模型影响的最终用户,存在内外部利益相关者的差异。研究综合分析了当前解释技术的局限,提出了促进最终用户交互的可解释性目标框架,并讨论了相关的问题。
Sep, 2019
本文提出了 “描述性解释” 和 “说服性解释” 的区别,讨论了功能解释与认知功能和用户偏好可能相关的推理,并提出了两个研究方向来消除认知功能和解释模型之间的歧义,保持准确性和可解释性之间的权衡控制。
Nov, 2017