人机交互中的信任修复再思考
信任是人们对机器人和技术进行采纳的重要因素,因此研究过去几十年的文献主要关注于测量人们对机器人和技术的信任程度,特别是在人机交互方面。本文中,我们概述了当前的研究方法及其优势,提出了一些薄弱方面,并讨论了在人机交互中影响信任度的更全面因素的潜力。
Nov, 2023
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
本文的研究目的在于设计实验来分别研究表现信任违反和道德信任违反对于人类对于机器人信任的影响,尤其探究当机器人违反特定的信任维度时,人对于机器人的信任会发生怎样的变化,以及生理信号能否用于评估这些不同类型的信任得失。
Oct, 2021
探讨人机交互中长效协作和人机信任的关键因素和伦理问题,着重关注自主性和主动性交互的人工智能技术和机器人使用中可能引发的潜在伦理和法律问题。
Jun, 2022
通过一项针对 17 名参与者的纵向研究,我们调查了信任、人机协作、辅助机器人个性化以及定制化因素之间的关系,我们的研究结果表明,辅助机器人的定制化程度与信任感和舒适度感知之间呈正相关,这对于设计可信赖和定制化机器人的辅助机器人设计过程具有重要意义。
Oct, 2023
本文探究了人类认知负荷、信任和拟人化在人机交互中的关系,并通过 “匹配配对” 游戏测试了人们对 Husky 和 Pepper 两款机器人在高认知负荷下的信任度和其物理拟人形态以及错误率对人们的评价和行为的影响。研究发现人们的认知负荷越高,信任度越低;在高错误率下,人们对 Pepper 的信任更高,在错误率低的情况下,人们对 Husky 的信任更高,表明物理拟人化和变量错误率对人机交互有一定的影响。
Sep, 2019
通过对该领域的文献进行梳理和分类,可以为未来的研究者和智能系统从业人员提供洞见和方向,以人为中心,信息为重点的角度探究人类对智能代理的信任感,并决定是否接受该代理的推荐或行动建议所需的额外信息。
May, 2022
这篇论文通过系统综述研究了人工智能系统中适当信任的建立、度量方式、使用的任务类型以及相关挑战,并提出了一种基于信仰、意图和行为的映射方法,总结了当前趋势、潜在差距和未来工作的研究机会,以推进我们对适当信任的复杂概念在人工智能交互中的理解。
Nov, 2023
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023