超越可解释人工智能:面向负责任人工智能的障碍
本文综述了可解释人工智能(XAI)领域内的现有文献,并对未来的研究前景进行了探讨。我们提出了一种新的可解释性定义,针对各种机器学习模型提出了分类。同时,我们讨论了 XAI 面临的一系列挑战,如数据融合和解释性之间的折衷等。最终,我们的观点指向了 “负责任人工智能” 的概念,在其中强调了 AI 方法在实际组织中的实施中必须保证公平性、模型可解释性和可追溯性。
Oct, 2019
人工智能是一个有潜力革命化从医疗保健到金融等领域的技术,但需要负责任地开发和部署。这篇研究论文探讨了负责任人工智能和可解释人工智能的关系,并发现可解释人工智能在确保公平性、透明度等方面对负责任人工智能是至关重要的。
Dec, 2023
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
通过分析有关 AI 规定和政策的立法进展,本研究讨论了可解释性人工智能(XAI)的技术现状及其对 AI 治理的潜在威胁,指出需要明确、合理的立法和政策以解决 AI 解释能力的问题。
May, 2024
这篇论文讨论了符合科学历史的可解释人工智能 (XAI) 的框架问题,其原因追溯至现代机器学习(尤其是深度和强化学习)和对创造值得信赖的 AI 系统的关注,它的五个级别框架是 XAI 的关键组成部分。
May, 2020
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI 技术的监管机制。其中,说明性的 AI 技术则被广泛应用。本文从几方面介绍了这种技术在高风险可信赖 AI 系统的全生命周期中的应用。
Dec, 2022