本文评估了不同的解释方法及其对神经网络和文本分类任务的影响,发现梯度基础的解释方法在不同任务及神经网络结构中表现最佳。
Sep, 2020
机器学习算法越来越被用于组织的决策中,特征解释引入因果模型的语义,导致决策者的先验偏见泄漏,并产生确认偏见和决策结果的差异,从而导致次优和有偏的决策结果。
Jun, 2022
本研究探讨了模型指导方法在 PASCAL VOC 2007 和 MS COCO 2014 数据集上的有效性以及提出了一种新的能量损失方法,证实了模型指导方法可以通过正则化模型的解释,集中于正确的特征,提高模型性能。
Mar, 2023
该研究探讨了解释在互动式机器学习系统中的作用,以帮助领域专家检测和解决潜在的数据问题,从而优化模型的效果;结果发现全局模型中心的解释不足以指导用户在数据配置过程中,而数据中心的解释可以提高对系统变化的理解,两种解释类型的混合体效果最佳。
Feb, 2024
本文介绍了一种名为 ExPred 的新方法,采用多任务学习的方法,在任务输入的解释生成阶段有效地平衡了解释和预测的损失,并使用另一个预测网络来优化任务性能。在三个不同的语言数据集上进行了广泛的评估,发现我们明显优于现有方法。
Jan, 2021
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
通过用户研究,本研究评估了可解释人工智能在实际场景中对人类决策的改进效果,结果发现虽然解释有助于用户更准确地描述模型,但对于模型选择和反事实模拟这两个任务,并没有找到使用任何显著改进的证据,这表明对基于显著性的解释的实用性和可能的误解需要谨慎对待。
Dec, 2023
提出了一种名为 FRESH 的简化模型解释方法,通过使用任意的特征重要性分数来导出二进制标签以训练提取器,再用提取器提供的片段训练独立分类器模块,从而构成可信解释,具有超越端到端方法的预测性能优势并更容易实现。
Apr, 2020
通过评估当前的推荐系统和其生成评论的组件,我们发现生成的评论是脆弱的且在被视作预测评级的文字理由之前有待进一步评估。
Sep, 2022
通过解释技术,提出了一种将解释转换为科学探索机制的框架,并证明结合黑盒预测器和生成模型可以用于生成无人类先验条件的假设,该技术用于糖尿病黄斑水肿的分类模型,成功连接模型的性能和人类理解。
Jul, 2020