人-代共同决策中的面子工作
本文探讨人类与机器人的协作中,心理模型对信任与决策的影响,并通过一项在线测试发现,人们对机器人的能力和意图的估计与总体自我报告信任强相关。但要做出正确的决策,人们需要(并使用)多面向的心理模型,而不是仅仅校准总体信任水平。
Sep, 2019
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类AI系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
通过对该领域的文献进行梳理和分类,可以为未来的研究者和智能系统从业人员提供洞见和方向,以人为中心,信息为重点的角度探究人类对智能代理的信任感,并决定是否接受该代理的推荐或行动建议所需的额外信息。
May, 2022
本文提出了一个框架,该框架将信任纳入人工智能团队合作的场景中,在这个场景下,一个智能体必须与人类合作完成任务。在任务过程中,智能体需要通过互动和观察来推断人类对其的信任程度,并调整自己的行为以最大化团队的表现。为了实现这一目标,我们建议从人类参与的实验中收集数据,定义不同的设置(基于信任水平),并为每个设置学习最优策略。然后,我们创建一个模块来推断当前的设置(取决于信任的数量)。最后,我们在实际场景中验证了这个框架,并分析了这种可适应行为对信任的影响。
Oct, 2022
本文提出了一种基于心理模型的信任理论,它不仅能够被用于推断信任,从而提供了一种替代心理或行为信任推断方法,而且还能作为基础用于任何信任感知的决策框架,通过对人类研究的对比,我们发现本文所提出的理论比最常用的信任量表(穆尔量表)更符合人类观察结果。
Jan, 2023
研究旨在发现设计具备信任修复能力的机器人策略和探索成功的潜在机制,以实现对机器人信任违背的修复。该文概述了人机交互中信任修复过程的基本概念和关键组成部分,并总结了作者在该领域的发表工作。此外,还讨论了将指导未来工作的研究问题以及该研究对该领域的潜在贡献。
Jul, 2023
本文研究了多智能体环境中,人类与机器人协作对抗他人时,基于心智化理论的机器人政策对于人机信任的重要性和有效性,并通过采用机器人心智理论模型来缓解机器人采用逆心理策略的问题以保持信任。
Nov, 2023
本文提出了一个信任模型,用于混合环境中人类和无人车协作。我们以一种连贯的方式将情感引入到信任模型中,以实用的方法与当前心理学理论相结合。最具创新性的贡献是隐私问题在情感信任模型的合作决策中的作用。情感和信任都通过GAMA智能体平台中的自主智能体采用信念、欲望和意图(BDI)范例进行认知建模和管理,并使用IEEE FIPA标准进行通信。这些情感代理的信任行为在协作物流问题中进行了测试,其中智能体必须将物体移动到目的地,并且某些物体和场所存在隐私问题。对此物流问题的模拟执行显示出情感和信任如何提高智能体在节省时间和隐私保护方面的表现。
Jan, 2024
通过考虑人类行为与人类信念,设计AI代理以促进与人类的协作,实现了更准确预测人类对AI行为的信念,并提升了人工智能与人类协作的性能。
Jun, 2024