本文的研究目的在于设计实验来分别研究表现信任违反和道德信任违反对于人类对于机器人信任的影响,尤其探究当机器人违反特定的信任维度时,人对于机器人的信任会发生怎样的变化,以及生理信号能否用于评估这些不同类型的信任得失。
Oct, 2021
信任是人们对机器人和技术进行采纳的重要因素,因此研究过去几十年的文献主要关注于测量人们对机器人和技术的信任程度,特别是在人机交互方面。本文中,我们概述了当前的研究方法及其优势,提出了一些薄弱方面,并讨论了在人机交互中影响信任度的更全面因素的潜力。
Nov, 2023
本文探讨人类与机器人的协作中,心理模型对信任与决策的影响,并通过一项在线测试发现,人们对机器人的能力和意图的估计与总体自我报告信任强相关。但要做出正确的决策,人们需要(并使用)多面向的心理模型,而不是仅仅校准总体信任水平。
Sep, 2019
研究旨在发现设计具备信任修复能力的机器人策略和探索成功的潜在机制,以实现对机器人信任违背的修复。该文概述了人机交互中信任修复过程的基本概念和关键组成部分,并总结了作者在该领域的发表工作。此外,还讨论了将指导未来工作的研究问题以及该研究对该领域的潜在贡献。
Jul, 2023
本文探究了人类认知负荷、信任和拟人化在人机交互中的关系,并通过 “匹配配对” 游戏测试了人们对 Husky 和 Pepper 两款机器人在高认知负荷下的信任度和其物理拟人形态以及错误率对人们的评价和行为的影响。研究发现人们的认知负荷越高,信任度越低;在高错误率下,人们对 Pepper 的信任更高,在错误率低的情况下,人们对 Husky 的信任更高,表明物理拟人化和变量错误率对人机交互有一定的影响。
通过一项针对 17 名参与者的纵向研究,我们调查了信任、人机协作、辅助机器人个性化以及定制化因素之间的关系,我们的研究结果表明,辅助机器人的定制化程度与信任感和舒适度感知之间呈正相关,这对于设计可信赖和定制化机器人的辅助机器人设计过程具有重要意义。
Oct, 2023
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
这篇论文通过对多个经过验证和可靠的人机互动信任测量工具的元分析,提出了一个一致的人机互动信任模型,为今后的研究提供了一个综合框架,并确定了信任测量的边界和需进一步调查的领域。
Mar, 2023
本文通过理论分析及模拟结果展示了利用强化学习方法来研究信任的经典任务 - 信任游戏,并提供了信任在该任务中产生的数学基础。
Dec, 2023
本文评估了一种人机协作方案,该方案结合了任务分配和动作规划推理的层次,使用贝叶斯推理预测他的人类伴侣的下一个目标,并实时重新规划自己的行动,实现了预期的适应性,取得了良好的人 - 机表现优化。
Feb, 2018