走向可解释的移动数据科学人工智能
在移动数据科学领域中,本文综合了关键的可解释性技术,如 LIME、SHAP、saliency maps、attention mechanisms、direct trajectory visualization 和 PFI,来揭示轨迹数据模型的空间 - 时间运动,并调查了用户偏好。
Dec, 2023
本文总结了基于因果推论对深度学习进行的可解释性和稳健性研究的最新进展,强调了交通运输领域深度学习基础的可解释性和稳健性问题,并提出发展因果学习模型应用于移动性分析的机遇。
Oct, 2022
分析空间变化效应在地理分析中至关重要,然而由于地理空间数据的复杂性和非线性,准确捕捉和解释这种变异性是具有挑战性的。本文介绍了一个集成框架,将局部空间加权方案、可解释人工智能(XAI)和先进的机器学习技术相结合,以弥合传统地理分析模型和通用机器学习方法之间的差距。通过对合成数据集的测试,验证了该框架在地理回归和分类中通过阐明空间变异性,提高了预测的解释性和准确性。它显著提升了预测精度,为理解空间现象提供了一种新的方法。
Mar, 2024
本研究提出了一种新型的可解释的异质图策略模型 (XHGP),并探讨了利用 GNNExplainer 和反事实推理来提高运动预测系统的可解释性,以便达到更为透明和可靠的自动驾驶需求。
Dec, 2022
本综述旨在探讨可解释人工智能在 6G 系统中的应用,包括公共和法律动机、解释性定义、性能与解释性权衡、提高可解释性的方法以及将可解释性纳入未来无线系统的框架,由 PHY 和 MAC 层的优化案例研究支持。
Nov, 2019
在自动驾驶中,透明度和安全性至关重要,使用于自动驾驶系统中的神经网络通常被认为是黑盒。我们通过可解释的人工智能方法和粗粒化技术来解决这一问题,并提出了一种建立透明骨干模型的方法,使得潜在值能够映射到输入特征,并且性能可与黑盒模型相媲美。此外,我们还提出了分析预测网络内部动态和特征相关性的解释和评估技术,并通过分析一个预测行人感知的 VAE-LSTM 世界模型来展示我们的方法。
Apr, 2024
对轨迹数据的深度学习方法进行了综合概述,并通过对移动性数据的数据中心分析,从 2018 年以来的文献进行了全面的定量回顾,探讨了八个特定的移动性应用案例及其训练数据的使用。
Feb, 2024
本文综述了过去 5 年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的 XAI 方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
汽车自动驾驶中的鲁棒公平可解释人工智能方法的发展是其未来的基础。本文提出了一种名为 Qualitative eXplainable Graph(QXG)的汽车自动驾驶场景的新表达方法,用于对长期场景进行定性时空推理。实验证明,这种定性可解释图的实时计算和轻量级存储为改进和更可信赖的感知与控制过程提供了潜在的有趣工具。
Aug, 2023
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024