通过用户实验使用适应的 Cox 模型学习可解释性的可视化
本文介绍了两个视觉分析模块,以帮助用户更直观地评估模型可靠性和不确定性,并通过使用交互式编辑器,用户可以操作模型的输入以及比较其输出,从而提高对模型能力和局限性的理解。在心电图节拍分类案例研究中,与基线特征重要性界面相比,我们发现 14 名医生能够更好地将模型的不确定性与领域相关因素相一致,并建立直觉。
Feb, 2021
该研究旨在生成能满足数据和用户要求的本地解释,以便解释已部署的机器学习模型。通过增强一种广泛使用的基于规则的解释方法、引入一种评估线性解释逼近模型适用性的新方法,并对两种对照解释方法家族进行比较实验,从而为任何模型生成可靠且用户可理解的解释方法提供了一种途径。此外,该研究通过用户实验评估了三种解释方法和两种不同表示形式的影响,测量用户在理解和信任方面对模型交互的感知。通过提升解释生成的质量,该研究对增强已部署的人工智能系统的透明度、可信度和可用性具有潜在的影响。
Feb, 2024
本文提出了一种支持决策者做出公正的借贷决策的框架,其中包含可解释的机器学习模型、可交互的可视化工具以及三种类型的解释。该框架通过提供全局与个性化的解释获得了 FICO 的认可奖。
Jun, 2021
研究比较了针对图像分类模型的基线、概念和反事实解释技术发现,反事实解释技术使用户能更准确地识别某些属性,并强调了衡量用户对模型偏差性推理能力的重要性。
Apr, 2022
评估 LIME 和 SHAP 两种常用工具的用户可理解性和可预测性,发现 SHAP 对于接近模型决策边界的样本提供的解释可理解性显著降低。此外,发现反事实解释和错误分类可以显著增加用户对机器学习模型决策的理解。根据研究结果,提出为未来的事后解释方法提供增加可理解性和可预测性的设计建议。
Sep, 2023
本研究采集了用户行为的全面数据集,并提出了时间序列分类方法的分析方法。通过对经典的 Covid-19 数据分析应用进行用户研究,我们发现用户行为在可视分析过程中可以区分,并且用户的物理行为与其执行的可视化任务存在潜在的强关联。我们还通过解释可视分析的开放会话来展示我们模型的用法,为研究感知过程提供了一种自动化的方式,避免了繁琐的手动标注。
Nov, 2023
本文提出了基于注意力神经网络的可视化解释推荐模型,这种模型可同时提供用户感兴趣的推荐结果和推荐理由,其关键在于模拟用户注意力,使用隐式反馈和文本评价进行监督学习。实验结果表明,所提出的模型不仅可提高推荐性能,还可以提供具有说服力的视觉解释。
Jan, 2018
本研究介绍了一种基于机器学习的数据可视化推荐方法,通过从大量数据集和相关可视化图中训练出网络来预测设计选择,从而降低探索基本可视化的难度.
Aug, 2018
本文提出了一种可解释性的聚类算法,该算法通过优化可解释性,生成具有解释性的聚类,并使用频繁模式挖掘生成简单的说明,该算法适用于具有特征价值的大规模数据集。
Dec, 2019
我们提出了一种基于 “专家混合” 的综合框架,以解决传统模型和机器学习方法在处理复杂系统时的准确性和解释性之间的平衡问题。通过数据驱动的融合多样化的本地模型,充分利用基于原则的先验知识,我们的解决方案支持专家的独立训练,并结合了机器学习和系统辨识技术,同时支持合作和竞争学习范式。为了增强解释性,我们对专家组合的突变进行了惩罚。实验结果验证了我们的方法的有效性,能够产生与目标现象紧密相似且可解释的模型组合。
Jan, 2024