一个性能可解释性框架,以评估机器学习算法:应用于多元时间序列分类器
该研究提出了一种名为 timeXplain 的框架,旨在将解释性人工智能应用于时间序列分类和价值预测中,并在该框架下对几种最先进的时间序列分类器进行了大规模实验比较,发现了似乎不同的分类概念之间的相似性。
Jul, 2020
多元时间序列分类中的解释方法主要关注基于显著性的解释方法,通过分析 ROCKET 和 dResNet 分类器,以及 SHAP 和 dCAM 两种解释方法在不同数据集上的表现,发现多元数据集的平坦化对分类效果有积极影响,同时也注意到了合成数据集不适合进行时间序列分析。
Aug, 2023
本文介绍一种可用于描述和评估可解释系统的分类法和一组描述符,该分类法包括五个关键维度:功能性、操作性、可用性、安全性和验证性。通过对机器学习的文献进行调研,提取作者们提出或隐含使用的标准和期望,在此基础上提出了五个关键维度,并将其制成可操作的解释事实表格形式,以便于快速掌握特定解释方法的能力和局限性。此分类法可指导新的解释方法的开发。
Dec, 2019
该论文提出了一个交互式和可解释的机器学习框架,同时结合了一个迭代的 XAI 管道和八个全局监控机制,通过可视化分析系统 explAIner 在 TensorBoard 环境下执行,增强了用户了解机器学习模型以及发现其局限性、优化和更新的能力,同时通过用户研究证实该框架可以帮助用户获得更详尽的信息和发现更多扩展机会。
Jul, 2019
该研究提出了一个标准化基准工具 XTSC-Bench,用于评估解释方法在时间序列分类中的效果,并分析了 3 种扰动方法、6 种梯度方法和 2 种示例方法的表现,发现改善解释器的鲁棒性和可靠性对于多变量数据尤为重要。
Oct, 2023
机器学习研究领域近年来取得巨大进展,深度学习模型在各种任务上表现出色。然而,这些模型往往在可解释性方面存在不足,因为它们作为不透明的 “黑盒子” 运行,使其决策背后的原理被遮蔽。为了解决这一挑战,我们的研究团队提出了一个创新框架,旨在权衡模型性能和可解释性之间的折衷。我们的方法以对高维数据的模块化操作为核心,可以进行端到端处理同时保持可解释性。通过融合多样化的解释技术和模块化数据处理,我们的框架可以揭示复杂模型的决策过程,而不损害其性能。我们广泛测试了我们的框架,并验证了其在实现计算效率和可解释性之间取得协调平衡方面的卓越成效。我们的方法通过在各个领域的部署中提供前所未有的对复杂模型内部工作原理的洞察,促进信任、透明度和问责制,满足当代机器学习应用的关键需求。
Jan, 2024
基于多元时间序列分类的解释方法研究,通过评估和改进解释方法的精确度和效率,展示解释方法在频道选择的应用中具有的可操作性,并展示基于扰动法的解释方法在各种数据集、分类器和任务中的优势。
Jun, 2024
探讨了在医疗保健领域中机器学习的应用。通过在 MIMIC-III 临床笔记中预测死亡率的任务中,我们展示了各种可完全解释的方法和模型不可知后续属性的可视化技术,同时提供了评估解释质量的通用方法。
Jul, 2021
本文提供了一种新颖的量化指标框架,用于解释分类器和回归模型的预测结果,旨在提高人工智能系统的透明度和可信度。应用公开数据集,展示了这些指标如何更全面地理解模型预测,并在决策者和利益相关者之间促进更好的沟通,从而增加人工智能系统的整体透明度和问责度。
Feb, 2023
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024