本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021
通过解释性机器学习,可以从大数据集中生成新的知识或进行发现,验证这些发现有助于提高机器学习系统的可信度和科学的可重复性。从实践和理论两个角度出发,我们讨论解释性机器学习的技术与挑战。
Aug, 2023
本文综合了关于可解释机器学习(IML)方法和评估的基础研究,提出了可操作的分类法,并提出了一个三步骤的工作流程,以更好地使研究人员和客户合作,发现哪些方法对什么用例有用。同时,作者通过在分类法结果的基础上进行进一步研究,更好地满足客户对相关用例和研究人员对提出的方法的需求。
本文综述了提高可解释机器学习模型的技术,并讨论了未来研究的关键问题,如设计用户友好的解释和开发全面的评估指标,以进一步推动可解释机器学习的发展。
Jul, 2018
通过对现有的解释性机器学习方法的综述,我们详细介绍了如何将常用的解释性机器学习方法应用于生存分析,以实现对模型决策或预测的理解。并且通过对加纳儿童 5 岁以下死亡率的实际数据的应用,展示了如何在实践中使用这些技术来促进对模型决策或预测的理解。
Mar, 2024
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022
可解释机器学习与大型语言模型相结合,评估解释方法并提出使用语言模型分析数据集和生成交互式解释的两个研究重点。
Jan, 2024
该研究论文旨在对可解释的机器学习进行定义和分类,并提出了一种更严谨的可解释机器学习科学评估方法的问题。
Feb, 2017
这篇论文调查了机器学习中可解释性的进展和未来前景,提出了多媒体计算中的应用示例,并明确指出可解释性的研究是一个值得进一步投资的重要研究方向。
Apr, 2023
本文回顾了在全球问题背景下,针对农业、食品加工和医疗健康等领域的机器学习可解释性和可访问性方面所做的工作,涵盖了科学和数学解释,统计解释和部分语义解释等多个方面
Nov, 2022