成功人机交互之路:人工智能、信任与伦理 - TRAITS
本文介绍了自 2014 年以来人工智能与人机交互研究会的历次会议,并讨论了其研究重点和主题,包括关于信任、XAI、服务机器人以及互动学习等。在 AR 和 VR 的新趋势下,特别鼓励提交不含物理机器人的评估研究,并阐述了在 HRI 中道德问题的考量。
Sep, 2021
本文总结了 2021 年人工智能与人机交互 (AI-HRI) 专题研讨会在探索 AI-HRI 未来方向上取得的成就,介绍了该会议的历史和目的,以及其对各领域和问题的影响,强调了该会议对大学、政府和工业实验室等机构及其研究人员的支持作用。
Sep, 2022
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
研究旨在发现设计具备信任修复能力的机器人策略和探索成功的潜在机制,以实现对机器人信任违背的修复。该文概述了人机交互中信任修复过程的基本概念和关键组成部分,并总结了作者在该领域的发表工作。此外,还讨论了将指导未来工作的研究问题以及该研究对该领域的潜在贡献。
Jul, 2023
这篇论文讨论了可信 AI 和 OR 技术的基础要素,包括公正性、可解释性、鲁棒性和隐私以及人机互动等,通过这些要素的整合与协作,可最终满足社会需求和解决挑战问题。
Apr, 2023
本文通过主题式地回顾和分析了 27 篇 CHI 研究论文和 19 个工具包,提出了对人本 AI (HCR-AI) 研究现状的基础性映射,结果显示当前 HCR-AI 研究热点为可解释性、公平性、隐私和安全等方面,同时指出应开展 AI 问责性的研究,并为非专业人员构建一种可用工具问责 AI,以解决 AI 对个人、社会和自然资源(人类繁荣和可持续性)的长期影响问题。
Feb, 2023
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
探讨了人类意识到的机器智能(human-aware AI)如何应用于人机交互(HRI),从观察时序设计算法,真正改变了人们对人工智能和科学研究的看法。
Oct, 2022
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
信任是人们对机器人和技术进行采纳的重要因素,因此研究过去几十年的文献主要关注于测量人们对机器人和技术的信任程度,特别是在人机交互方面。本文中,我们概述了当前的研究方法及其优势,提出了一些薄弱方面,并讨论了在人机交互中影响信任度的更全面因素的潜力。
Nov, 2023