通过对网络系统中的网络驱动安全威胁和问题进行系统分类,本文就网络安全中的可解释人工智能问题进行了回顾和研究,探讨了解释人工智能目前的挑战和局限性,并提出了未来的研究方向。
Mar, 2023
本文综述了可解释人工智能在网络安全领域中的应用,以及传统人工智能技术的挑战和在不同行业和应用中 XAI 的实现。
Jun, 2022
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
本文对可解释性人工智能的相关文献进行了系统回顾,发现了四个主题性讨论,旨在推动可解释性人工智能领域的研究进一步深入发展。
Dec, 2020
本文针对黑盒子人工智能模型存在的不可解释性问题,在物联网领域提供了一些可解释的人工智能模型的系统性研究和分类,同时探讨了一些挑战性问题和未解决问题,并给出了未来发展方向。
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
探讨解释性人工智能在网络取证中的意义、优势和挑战,并提出解决方案和未来研究方向,为以后对解释性人工智能在网络取证中感兴趣的研究者提供有希望的基础。
Feb, 2024
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023