从头还是从心?解释对认知和情感信任影响的实验设计
本研究在 32 名实验参与者中使用四种不同条件进行了模拟试驾实验,分别是: (1) 无解释,(2) AV 行动前给出解释,(3) AV 行动后给出解释和 (4) 驾驶员听取解释后选择是否批准 AV 的行动。结果表明,在 AV 行动前提供的解释与更高的信任度和喜好度相关联,但焦虑和心理负荷没有区别。这些结果对于 AV 的采纳有重要的启示作用。
May, 2019
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
AI 系统的关键是提供用户可以理解和采取行动的解释。本论文通过对认知科学和解释相关的文献研究,以及调查人们对自主驾驶车辆行为解释的生成和评价,发现人们倾向于用目的论解释决策和行为,无论是对于其他人还是自主驾驶车辆都表现出这一倾向。研究结果促进了对于自主驾驶决策的人工注释视频情况和解释数据集 (HEADD) 的进一步研究。
Mar, 2024
自动驾驶汽车中人工智能的可解释性和人机界面对于建立信任起到重要作用,因此本研究探讨了可解释性人机系统的作用,提出了一种评估用户对自动驾驶行为的信任的情境感知框架,并通过实验证明了相关的经验结果。
Apr, 2024
研究证明,提供自动驾驶汽车行动解释具有许多优点,但人们需要什么样的解释及其关键程度在不同的驾驶情境下发生转变。该研究通过实验发现,驾驶者类型和驾驶场景决定是否需要解释,特别是在危机事件发生附近,人们往往同意必须提供解释。
Jun, 2020
通过一项前后实验,我们测试了模仿人类驾驶专家指令的人工智能教练解释性沟通对驾驶性能、认知负荷、信心、专业知识和观测学习背景下的信任度的影响。结果表明,人工智能驾驶教练对新手教授性能驾驶技能非常有用,并且信息类型和呈现方式对驾驶表现有影响,需要倾向于设计高效、适合感官的解释性沟通以指导学习过程。
Jan, 2024
研究通过比较两个游戏机器人的表现来探究机器人决策解释对人类感知的影响,发现机器人提供解释并不能改变机器人的可信度、智能、好感度和安全性评级,但提供解释的机器人被认为更有生命力和人性化。这项研究表明,机器人决策解释具有提高人机交互及其各种效果的潜力,需要进行进一步评估。
Apr, 2022
通过全面回顾已有文献,本研究对解释性任务、解释性信息和解释性信息沟通这三个主要话题进行了分类,提出了一个综合的研究路线图,旨在指导解释性自动驾驶车辆的开发和部署,以确保在用户需求、技术进步、合规性和伦理考虑等方面具有更安全和可信赖的自主驾驶体验。
Mar, 2024
本文研究了自然语言解释的详细程度对无人驾驶汽车中乘客的影响,结果显示,自然语言解释对提高乘客的感知安全和减轻焦虑情绪有类似的积极效果,但详细的解释会影响乘客希望掌控驾驶行为的意愿。
Jul, 2023
基于 “物体引导” 模型方法和 Beta 先验的证据深度学习范式,该研究提出了一种解释自动驾驶车辆决策的方法,通过集成不确定性评估来克服复杂驾驶场景中可靠性方面的挑战,并在基于 BDD-OIA 数据集的实验中证明该模型在各种情景下优于现有基准模型。
Feb, 2024