协调解释性要求的七个挑战
通过分析有关 AI 规定和政策的立法进展,本研究讨论了可解释性人工智能(XAI)的技术现状及其对 AI 治理的潜在威胁,指出需要明确、合理的立法和政策以解决 AI 解释能力的问题。
May, 2024
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
这篇论文讨论了符合科学历史的可解释人工智能 (XAI) 的框架问题,其原因追溯至现代机器学习(尤其是深度和强化学习)和对创造值得信赖的 AI 系统的关注,它的五个级别框架是 XAI 的关键组成部分。
May, 2020
本研究探讨了欧盟提出的《人工智能法案》中涉及的 AI 监管,特别关注了卫生保健等高风险领域中使用的 AI 系统的透明性和可解释性的要求。研究发现,XAI 解决方案与 AI 法案的要求存在显著差异,因此认为律师和 XAI 研究人员之间的合作至关重要。该研究讨论了 XAI 的法律关联性和 AI 法案和 GDPR 中的透明性和可解释性要求等四个主要问题。最终旨在促进学科间的研究,支持制定可持续监管,促进负责任的创新。
Feb, 2023
本文通过对金融领域中深度学习模型可解释性方法的比较研究,对人工智能和深度学习模型的成功及其在各个行业中的广泛应用进行了讨论,并对可解释性人工智能方法的分类、关注点和挑战进行了综述,并提出了未来方向。
Sep, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023
本文综述了可解释人工智能(XAI)领域内的现有文献,并对未来的研究前景进行了探讨。我们提出了一种新的可解释性定义,针对各种机器学习模型提出了分类。同时,我们讨论了 XAI 面临的一系列挑战,如数据融合和解释性之间的折衷等。最终,我们的观点指向了 “负责任人工智能” 的概念,在其中强调了 AI 方法在实际组织中的实施中必须保证公平性、模型可解释性和可追溯性。
Oct, 2019
通过博弈论模型,本文挑战了强制要求完全透明的可解释人工智能 (XAI) 法规导致更大社会福利的普遍观念,并发现可解释人工智能 (XAI) 法规可能是多余的,事实上,强制要求完全透明的可解释人工智能 (XAI) 法规可能会使公司和客户陷入困境。这揭示了在最大化福利和接收可解释的人工智能输出之间存在权衡,同时也讨论了对政策制定者和公司的管理意义。
Sep, 2022