运用视觉分析解释预测机器学习模型
本研究论文系统地总结了交互模型分析的三大类任务:理解、诊断和改进,旨在帮助用户高效解决实际的人工智能和数据挖掘问题,同时探讨了相关未来研究机会。
Feb, 2017
本文介绍了两个视觉分析模块,以帮助用户更直观地评估模型可靠性和不确定性,并通过使用交互式编辑器,用户可以操作模型的输入以及比较其输出,从而提高对模型能力和局限性的理解。在心电图节拍分类案例研究中,与基线特征重要性界面相比,我们发现 14 名医生能够更好地将模型的不确定性与领域相关因素相一致,并建立直觉。
Feb, 2021
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
该研究论文概述了理解机器学习模型的需求,解释了分类理解方法并提供了在不同医疗保健领域实际应用机器学习可解释性的例子,强调开发算法解决高风险医疗问题的重要性。
Feb, 2020
在高风险领域中,机器学习模型已经被广泛用于辅助决策,而开发可解释的模型的兴趣逐渐增加。然而,是否这些模型能实现预期的效果,我们缺乏实验研究来证明。本研究开展了一系列预先注册的实验,展示了具有不同要素的模型,以调查它们的可解释性。结果表明,模型越透明、特征越少,参与者越能成功地模拟模型的预测,但是参与者并没有更加倾向于紧密关注其预测,而拥有透明的模型却使参与者因信息过载难以检测和修正模型的重大错误。这些结果强调了开发可解释模型时实验测试的重要性。
Feb, 2018
通过系统审视 259 篇近 10 年来发表以及 2010 年前的代表性著作,我们构建了一个分类法,其中包括技术建模前、建模过程中以及建模后的三个一级类别;每个类别可以进一步分为具体的分析任务,并列举了一些最近具有影响力的作品。同时,我们还讨论和突出了有挑战和有前景的研究机会,这些对于视觉分析的研究者非常有用。
Aug, 2020
这篇论文提出一种名为模型抽取的方法,通过构建一个可解释程度更高的模型来近似黑箱模型,从而理解和调试机器学习模型在各种数据集上训练的结果,并在经典强化学习问题中学习控制策略。
Jun, 2017