可解释人工智能是否具有道德价值?
该研究介绍了一种以跨文化伦理为基础的可解释人工智能方法,针对在全球南方低资源领域中的应用,探讨了文化差异如何影响技术采用和使用,以及如何提高用户理解和促进这些方法的有效使用。
Apr, 2023
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
人工智能是一个有潜力革命化从医疗保健到金融等领域的技术,但需要负责任地开发和部署。这篇研究论文探讨了负责任人工智能和可解释人工智能的关系,并发现可解释人工智能在确保公平性、透明度等方面对负责任人工智能是至关重要的。
Dec, 2023
本文综述了可解释人工智能(XAI)领域内的现有文献,并对未来的研究前景进行了探讨。我们提出了一种新的可解释性定义,针对各种机器学习模型提出了分类。同时,我们讨论了 XAI 面临的一系列挑战,如数据融合和解释性之间的折衷等。最终,我们的观点指向了 “负责任人工智能” 的概念,在其中强调了 AI 方法在实际组织中的实施中必须保证公平性、模型可解释性和可追溯性。
Oct, 2019
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022
最近几年,机器学习和人工智能在社会中的影响非常显著,但是其应用也引起了严重关切。解释性人工智能(XAI)致力于为人类决策者提供可理解的机器学习模型预测解释,是可信任人工智能的基石。本文调查了基于逻辑的解释性人工智能(XAI)的技术和研究领域,并指出了当前非严谨方法的误区。
Jun, 2024
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023