EXMOS:通过多方面解释和数据配置来引导解释模型
在互动式机器学习系统领域中,提供解释作为在调试和增强预测模型过程中的重要辅助。本技术报告总结了我们两个用户研究的主要发现,结果表明全局以模型为中心和以数据为中心的解释结合使用在指导用户进行数据配置复杂过程中展示出最高效果,对医疗专家的信任、理解性和模型改进具有积极影响。同时,文章还提出了开发互动式机器学习系统的关键启示,以激发领域专家充分发挥机器学习的潜力。
Oct, 2023
我们的目标是通过从一组同样好的模型中找到符合物理定律并满足利益相关者需求的预期解释的准确模型,进而促进解释能力强的人工智能(XAI)融入科学领域。
Feb, 2024
本文介绍了一种可视化指导的以数据中心的解释为主的仪表板,可辅助护理专家们监测糖尿病发病的风险并推荐减少风险的措施。研究发现,与其他解释方法相比,数据中心的解释方法是护理专家们所偏好的,因此表明向护理专家们提供可视化指导的数据中心的解释方法对从糖尿病患者健康记录中获得可操作性的见解是极其重要的。
Feb, 2023
我们提出了一种基于 “专家混合” 的综合框架,以解决传统模型和机器学习方法在处理复杂系统时的准确性和解释性之间的平衡问题。通过数据驱动的融合多样化的本地模型,充分利用基于原则的先验知识,我们的解决方案支持专家的独立训练,并结合了机器学习和系统辨识技术,同时支持合作和竞争学习范式。为了增强解释性,我们对专家组合的突变进行了惩罚。实验结果验证了我们的方法的有效性,能够产生与目标现象紧密相似且可解释的模型组合。
Jan, 2024
该研究旨在生成能满足数据和用户要求的本地解释,以便解释已部署的机器学习模型。通过增强一种广泛使用的基于规则的解释方法、引入一种评估线性解释逼近模型适用性的新方法,并对两种对照解释方法家族进行比较实验,从而为任何模型生成可靠且用户可理解的解释方法提供了一种途径。此外,该研究通过用户实验评估了三种解释方法和两种不同表示形式的影响,测量用户在理解和信任方面对模型交互的感知。通过提升解释生成的质量,该研究对增强已部署的人工智能系统的透明度、可信度和可用性具有潜在的影响。
Feb, 2024
该研究通过一个众包实验,探讨解释机器学习模型的预测对人类是否具有帮助,并发现在给定特征系数的情况下,人们能够更有效地对线性词袋模型进行操纵,但解释对 BERT 型分类器并没有显著提高操纵能力,而通过伪造 BERT 模型的线性模型的对全局归属的解释则可以有效地操作 BERT 型模型。
Dec, 2021
在高风险领域(如医疗保健)中,为了有效实现人工智能(AI)系统与领域专家之间的合作,我们引入了一种解释模型引导系统,允许领域专家利用其领域知识来引导预测模型。通过结合基于数据和模型的不同类型解释和手动、自动数据配置方法,该系统提供了一个解释仪表盘,用于引导预测模型。通过三项广泛的用户研究,我们对以医疗保健为重点场景的模型引导系统进行了评估,研究结果强调了在模型引导过程中涉及领域专家的重要性,从而最终实现了人工智能与人类的改进合作。
May, 2024
本文研究了在校准背景下,使用关注力分布实现模型解释性的难点,发现没有校准的模型使用关注力分布的方式实现解释性是不稳定的,这引发了关于关注力在可解释性中的实用性的疑问。
Jun, 2019
提出了一种称为解释性引导学习(XGL)的新型交互式学习策略,其中机器通过全局解释来引导人类监督员选择具有信息量的分类器示例,这种方法有效避免了机器供给的局部解释可能过高估计分类器质量的问题。
Sep, 2020