校准解释
本文研究了在校准背景下,使用关注力分布实现模型解释性的难点,发现没有校准的模型使用关注力分布的方式实现解释性是不稳定的,这引发了关于关注力在可解释性中的实用性的疑问。
Jun, 2019
本篇论文提出了一种基于置信度校准的学习方法,能够同时满足模型可靠性和可解释性,通过皮肤镜图像的病变分类问题验证了该方法的有效性,同时还提出了一种全面评估模型可靠性的机制 - Reliability Plots。
Apr, 2020
本文提出了一种量化解释性方法质量的量化度量,并在众包实验中通过信息传输速率得到了实证证据,从而说明解释性方法的价值。同时,还提出了一种信任度量,以检测人类决策是否过度偏向机器学习预测。
Jan, 2019
研究了基于不同特征的人工智能辅助决策场景下,人类对人工智能的信任度与信任度校正,以及人类与人工智能协同工作的影响因素。结果表明,人类信任度的校正能够通过特定的置信度得到有效提高,尽管人类的专业独特知识对于决策的最终结果有良好的辅助作用,但同时也存在着使用本地解释会出现的问题。因此,我们需要探索新的可信度解释方法来更好地衡量和校正人类对人工智能的信任度。
Jan, 2020
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
本文提出 CME 方法,结合模型解释来降低非归纳属性的模型信心度,进而提高预测的后验概率校准性能。在六个数据集上的实验表明,该方法提高了所有设置下的校准性能,并在温度缩放的情况下进一步降低了预期校准误差。
Nov, 2022
该论文介绍了一种评估生成模型校准性的框架,并发现大部分生成代码模型在校准性方面表现不佳。通过使用 Platt 缩放等标准方法,可以改善校准性,从而提供更准确的决策支持和为未来研究提供校准方法的框架。
Feb, 2024
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023