ICMLJun, 2021
透明度的图灵测试
A Turing Test for Transparency
Felix Biessmann, Viktor Treu
TL;DR该研究旨在通过构建透明的 AI 系统来提高人机交互的信任关系,并通过引入图灵测试来建立可信度评估体系,以便解释机器学习模型的结果,证明透明的 ML 方法能够通过人机交互获得信任,但也需要注意到人类与机器的辨别能力。
Abstract
A central goal of explainable artificial intelligence (XAI) is to improve the
trust relationship in human-ai interaction. One assumption underlying research
in →
explainable artificial intelligencehuman-ai interactiontransparent ai systemsmachine learning modelsturing test
发现论文,激发创造
可解释化人工智能并未提供最终用户所要求的解释
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023
人工智能系统中的解释原则
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
您能相信您的解释吗?特征归因方法的健壮性测试
评估对非敌对扰动的稳健性并分析神经网络和表格数据集上应用的可解释 AI 方法的稳健性,展示如何利用流形假设和集成方法对稳健性进行深入分析。
Jun, 2024
可信的 AI 系统需要准确性和解释性两者兼备
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI 技术的监管机制。其中,说明性的 AI 技术则被广泛应用。本文从几方面介绍了这种技术在高风险可信赖 AI 系统的全生命周期中的应用。
Dec, 2022
透明机器学习的质量指标与是否有人参与无关
使用心理物理学技术研究了可解释计算机视觉算法的质量,发现经典的心理物理学方法可以用于机器学习应用程序中,而无需人为干预,使用传统的自动化质量指标计算出的质量指标不能提供一致的解释方法排名,这些发现强调了只有在人机交互的自然环境中评估解释能力才能获得真实的解释能力评估。
Jul, 2021