社会对算法问题解决的能力前所未有地增强。人工智能如今应用于更多的领域,这是强大的抽象化、丰富的数据和易于使用的软件的结果。随着能力的扩展,风险也增加了,因为模型常常在没有完全理解其潜在影响的情况下部署。可解释且交互式的机器学习旨在使复杂模型更加透明和可控,增强用户机构。本综述从这一领域的不断增长的文献中综合了关键原则。
May, 2024
本文介绍了机器学习和深度学习算法在科学和工业领域中的应用及其不透明性问题,提出了解释性学习算法和可视化方法的重要性。
Sep, 2019
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
本文回顾了可解释的机器学习,探讨了在自然科学领域应用中的透明度、可解释性和解释性三个核心要素,并提供了结合应用领域的领域知识使用可解释的机器学习的最近科学作品的概述。
May, 2019
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
本篇论文介绍了医学领域中解释性人工智能的研究,强调让人们能够透明地理解和信任 AI/ML 技术的重要性,主要关注于图像、* 组学数据和文本三个方面。
Dec, 2017
本文通过对金融领域中深度学习模型可解释性方法的比较研究,对人工智能和深度学习模型的成功及其在各个行业中的广泛应用进行了讨论,并对可解释性人工智能方法的分类、关注点和挑战进行了综述,并提出了未来方向。
Sep, 2023
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
Aug, 2022