医生就是不接受这样的事实!
通过建立代理角色模型,为解决机器学习系统可解释性问题提供一种新思路,并探讨代理角色对可解释性定义和机器学习目标的影响,为解释性研究、系统开发和监管机构的审计提供了一些启示。
Jun, 2018
本文讨论机器学习中的黑盒模型和渴望解释这些模型的方法,强调设计本质可解释模型的必要性以替换高风险决策中的黑盒模型,包括揭示解释黑盒与使用可解释模型之间的差异、阐明避免使用解释型黑盒的原因、提出挑战和解释机器学习的几个应用案例。
Nov, 2018
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
通过对利益相关者进行更细致的区分和认知,使黑匣子自动化系统更易于被解释和理解,在机器学习、数据领域和一般环境中对利益相关者进行了表征,并区分了域目标和可解释性任务。通过对我们的框架的描述、评价和生成力的评估,我们发现我们对利益相关者的更微妙的处理揭示了可解释性文献中的空白与机会,增加了用户研究的设计和比较的精度,并促进了更反思性的研究方法。
Jan, 2021
本文主要介绍了在高风险背景下机器学习算法变得越来越重要的情况下,为了能够更好地解释机器学习算法,需要考虑相关方利益,例如终端用户,监管机构和领域专家。但是目前较少有关于实现解释性机器学习的工程实践,因此我们进行了一个闭门的研讨会,汇集了学界、产业界、法律界和政策界的专家,分析了当前实现解释性机器学习的现状,分享了大量实例和经验,并探讨了相关未解决的问题。
Jul, 2020
通过一项大规模众包研究,本文揭示和量化了通过图像分类任务来人与计算机理解背景的分歧,并回答了哪些复杂机器学习模型更接近于人类使用特征以进行准确预测,任务的难度如何影响机器选择特征的能力,并与人类相比,人类是否一致更擅长选择使图像识别更精确的特征。以上发现对于人机协作具有重要的意义,考虑到人工智能领域的长期目标是使机器能够像人类一样学习和推理。
Jan, 2021