文本复杂推理的可追溯和可解释方法
该综述论文提供了解释性监督机器学习的基本定义、原则和方法,并对过去和最近的解释性机器学习方法进行了分类和综述。通过解释性案例研究阐明了原则,并讨论了重要的未来方向。
Nov, 2020
探讨了在医疗保健领域中机器学习的应用。通过在 MIMIC-III 临床笔记中预测死亡率的任务中,我们展示了各种可完全解释的方法和模型不可知后续属性的可视化技术,同时提供了评估解释质量的通用方法。
Jul, 2021
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022
最近在机器学习和深度学习研究领域的重大突破为利用海量数据和优化包含数百万参数的庞大模型以获得图像处理方面的准确网络提供了出色的工具,进而为在自动化和人工智能行业中使用人工智能打开了巨大的机遇。然而,随着越来越多的模型在实践中得到部署和使用,也出现了许多挑战。本文介绍了解决在实践中使用机器学习和深度学习所面临的鲁棒性和可解释性挑战的多种方法。
Mar, 2024
介绍了通过解释性表现组合、数据采样和解释生成构建和评估定制模块化替代解释器的过程的手册,以帮助了解人工智能和机器学习算法的可解释性技术。
Sep, 2022
通过可解释的人工智能工具和符合可解释人工智能原则的模型简化,本研究探讨了透明度问题在公共政策评估中对因果机器学习的影响,并应用到一个案例研究中,展示了现有工具对于理解黑盒预测模型的不适用性,以及将模型简化以提高可解释性会导致误差的不可接受增加,最终得出需要新工具来正确理解因果机器学习模型及其拟合算法的结论。
Oct, 2023
通过重温 Nissenbaum 文章中关于计算机化对责任追究带来的挑战,结合最新的关于关系型责任追究框架的研究,探讨了数据驱动算法系统所面临的困难,并讨论了削弱这些困难的方法。
Feb, 2022
研究了黑匣子解释问题,利用 LaundryML 算法演示如何以一定的公平指标系统地合理化黑匣子机器学习模型的不公平决策,可提供高效的规则列表,同时满足高度匹配和更少的不公平性。
Jan, 2019
本文提供了一种新颖的量化指标框架,用于解释分类器和回归模型的预测结果,旨在提高人工智能系统的透明度和可信度。应用公开数据集,展示了这些指标如何更全面地理解模型预测,并在决策者和利益相关者之间促进更好的沟通,从而增加人工智能系统的整体透明度和问责度。
Feb, 2023