可解释的自主机器人:一项调查与展望
该文章重点讨论解释目标驱动型智能代理人和机器人的方法,强调透明度、可理解性和持续学习的策略。它提出了可行的目标驱动可解释代理人和机器人的实现路径和要求。
Apr, 2020
这项调查综述了针对基于行为克隆训练的视觉自驾系统的可解释性方法。该综述从计算机视觉、深度学习、自动驾驶和可解释人工智能等多个研究领域收集贡献,并讨论了自驾车的解释性定义、动机、方法以及未来挑战。
Jan, 2021
研究通过比较两个游戏机器人的表现来探究机器人决策解释对人类感知的影响,发现机器人提供解释并不能改变机器人的可信度、智能、好感度和安全性评级,但提供解释的机器人被认为更有生命力和人性化。这项研究表明,机器人决策解释具有提高人机交互及其各种效果的潜力,需要进行进一步评估。
Apr, 2022
通过全面回顾已有文献,本研究对解释性任务、解释性信息和解释性信息沟通这三个主要话题进行了分类,提出了一个综合的研究路线图,旨在指导解释性自动驾驶车辆的开发和部署,以确保在用户需求、技术进步、合规性和伦理考虑等方面具有更安全和可信赖的自主驾驶体验。
Mar, 2024
自动驾驶汽车中人工智能的可解释性和人机界面对于建立信任起到重要作用,因此本研究探讨了可解释性人机系统的作用,提出了一种评估用户对自动驾驶行为的信任的情境感知框架,并通过实验证明了相关的经验结果。
Apr, 2024
研究证明,提供自动驾驶汽车行动解释具有许多优点,但人们需要什么样的解释及其关键程度在不同的驾驶情境下发生转变。该研究通过实验发现,驾驶者类型和驾驶场景决定是否需要解释,特别是在危机事件发生附近,人们往往同意必须提供解释。
Jun, 2020
针对智能机器人的高水平任务计划存在的问题,提出了 “计划可解释性” 和 “可预测性” 的概念,通过条件随机场模型学习标签方案并对新计划进行标签,用以提高机器人计划的可解释性和可预测性,该方法经过了人机交互和实际机器人测试并取得了较好的性能。
Nov, 2015
AI 系统的关键是提供用户可以理解和采取行动的解释。本论文通过对认知科学和解释相关的文献研究,以及调查人们对自主驾驶车辆行为解释的生成和评价,发现人们倾向于用目的论解释决策和行为,无论是对于其他人还是自主驾驶车辆都表现出这一倾向。研究结果促进了对于自主驾驶决策的人工注释视频情况和解释数据集 (HEADD) 的进一步研究。
Mar, 2024
人工智能在自动驾驶的感知和规划任务中表现出优越性能,但不透明的人工智能系统加剧了自动驾驶的安全保障难题。为了缓解这一挑战,我们首次对透明解释性人工智能方法在安全可信自动驾驶领域进行了全面系统的文献综述。我们分析了自动驾驶中人工智能的要求,并针对数据、模型和机构三个关键方面提出了透明解释性人工智能的基本原则。在此基础上,我们提出了五个透明解释性人工智能对安全可信自动驾驶的关键贡献,包括可解释设计、可解释的代理模型、可解释的监控、辅助解释和可解释的验证。最后,我们提出了一个名为 SafeX 的模块化框架,将这些贡献集成起来,为用户提供解释并同时确保人工智能模型的安全性。
Feb, 2024