人机交互设计和用户体验中的人工智能
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
我们提出了一种用于最新深度学习为基础的机器人程序优化器的解释用户界面(XUI),它提供了不同的用户体验以应对用户的不同技能水平,同时引入了可解释的人工智能(XAI)功能以促进深度学习方法在实际应用中的应用。为了评估 XUI 对任务性能、用户满意度和认知负荷的影响,我们提出了初步用户调查的结果,并提出了一个大规模后续研究的研究设计。
Apr, 2024
该论文通过对 53 篇出版物的系统调查,介绍了可解释人工智能(XAI)和可解释界面(EI)研究的最新趋势,旨在提高 XAI 系统的可用性、实用性和用户体验设计方面的效果,并为 EI 设计与开发指明了有前途的方向。
Mar, 2024
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
研究发现,经验丰富的设计师对于 Generative Artificial Intelligence(GenAI)的作用持支持态度,强调了人类在享受和作为 “AI 合作伙伴” 的裁决者方面的独特优势,然而,技能退步、工作替代和创造力衰竭可能会对初级设计师产生不利影响。研究探讨了人类与 GenAI 的合作的责任和参与度,包括版权和所有权,人类的创造力和主权,以及 AI 读写能力和使用方面的机会。
Sep, 2023
通过访谈 20 位 UX 和设计从业者,该研究通过开发基于算法的 XAI 问题库来识别当前 XAI 算法工作和可创建可解释 AI 产品的实践之间的差距,并提出了扩展的 XAI 问题库,探讨其如何用于创建以用户为中心的 XAI。
Jan, 2020
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
本研究提供了一种设计空间方法,通过人机交互设计支持数据科学家和领域专家对 AI 公平性进行调查,我们使用贷款申请作为实例,通过一系列研讨会,我们将贷款专员和数据科学家的需求实现到了 FairHIL 用户接口中。该研究通过 think-aloud 用户研究验证了 FairHIL 的可靠性,并为调查 AI 模型公平性提供更好的设计。
Jun, 2022
研究提出了一个综合的混合方法框架,采用不同样本的老年人,包括用户体验,可用性评估和深入访谈,集成可解释人工智能 (XAI) 方法。研究结果显示,XAI 注入的电子健康界面在调查老年人与电子健康界面交互时的偏好方面,扮演了重要角色,并确定了用户友好的人机交互 (HCI) 工具的重要设计因素。此研究的发现对于用户为中心的电子健康技术的设计和开发,旨在提高老年人的整体幸福感具有深远的意义。
Feb, 2024
本文主要探讨在当前和未来的自动机器学习系统中,人与计算机交互如何发生(包括开发、部署和维护阶段的 HCI),不同类型的用户和利益相关方对 HCI 的期望是否存在差异,如何管理 HCI 以使自动机器学习获得人的信任和广泛接受,以及随着自动机器学习系统变得更加自主和学习能力增强,HCI 的基本特性是否会发生变化。研究关键领域包括自动化机器学习,人机交互,用户界面设计,人工智能信任等方面。
May, 2022