通过引导认知模型来测量在XAI辅助决策中的感知信任
本文提出了一种量化解释性方法质量的量化度量,并在众包实验中通过信息传输速率得到了实证证据,从而说明解释性方法的价值。同时,还提出了一种信任度量,以检测人类决策是否过度偏向机器学习预测。
Jan, 2019
采用心灵理论将人的意图、机器理解和人对机器的理解显式建模,生成更优质的AI解释框架以提高人们对复杂机器学习模型的信任。在3个视觉识别任务中展示了该框架的实际应用性,而且经过大量的人类实验证明该框架的效果比现有的同类算法要更好。
Sep, 2019
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
机器学习模型解释学(即可解释性AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对XAI领域的科学知识的进一步贡献是必要的。
Sep, 2020
人类如何信任人工智能及如何评估其可信度及可靠性这是应用机器学习中最为基础的问题。基于统计学习理论和社会视角,我们提出一种将人工智能作为工具的框架,即从区别人机信任与人机人信任的角度出发,运用行为证书来预测模型的行为并澄清了解释能力对于信任的贡献以及模型行为对于信任的重要性。
Feb, 2022
本文中,我们强调了不仅理论论证了疑虑作为独立于信任的第二个构想的重要性,而且从心理测量的角度证实了它们之间的区别。尽管尚未确定可用的心理测量证据是否足以支持疑虑的存在,但XAI社区应保持对考虑信任和疑虑以更全面的方式理解这两个相关构想的开放性。
Mar, 2023
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
AI医疗技术对健康医疗产生重大影响,本文回顾了在医疗领域中可解释机器学习(IML)和可解释人工智能(XAI)的过程和挑战,着重关注质量控制,并针对实验结果阐明了健康医疗中稳健解释性的重要性,为创建可沟通的医生-人工智能工具提供了见解。
Nov, 2023