该研究利用欺骗检测作为实验平台,研究了如何利用机器学习模型的解释和预测来提高人类表现,并保持人类主体性。结果表明,机器预测的解释可以促进人类表现的提高,而这种提高与机器高性能的明确建议具有相似的效果。
Nov, 2018
研究表明通过引入可解释的 AI 助手来解释新闻评论平台中的假新闻,有助于改善用户对算法透明度的理解和信任程度,并提高他们的准确性。
Jul, 2020
本研究通过与最新方法(集成渐变、保守 LRP 和 ChatGPT)进行对比实证调查,收集和分析了 156 个人生成的文本和基于显著性的解释,并发现与机器显著性图相比,人工显著性图尤其在解释人工智能结果时更具说明性,但其性能与对人工智能模型和解释的信任负相关,揭示了人工智能解释中的困境:当有助于理解错误的人工智能预测时,会降低任务表现。
Apr, 2024
研究表明,在机器学习中,准确度比可解释性更重要,添加解释可能会损害用户信任,同时高度真实的解释不能欺骗用户的信任,用户的信任感与其实际表现不符。
Jul, 2019
本文介绍了一种名为 TED(Teaching Explanations for Decisions)的实用框架,它提供了能够匹配消费者心智模型的有意义的解释,通过两个例子的演示,表明这种方法的广泛性和有效性,同时无损准确性。
该论文对 50 多篇与机器学习模型解释袭击和公正性度量有关的研究进行了简要综述,并讨论了如何防御攻击和设计稳健的解释方法。该论文提出了现有 XAI(可解释人工智能)不安全因素的列表,并概述了 Adversarial XAI(AdvXAI)的新兴研究方向。
Jun, 2023
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
该研究论文提出了解释性机器学习方法来提高人类决策水平和人工智能协助决策效能之间的差距。
Mar, 2020
本研究提出了一种自我解释的 AI 的概念,它能够解释其决策的机制并提供信心水平,但由于深度神经网络的双下降现象,训练复杂真实世界数据的神经网络难以解释和外推,因此深度学习系统需要包括特定预警来保证其应用的安全性。
Feb, 2020
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023