- 图灵测试的基于游戏化的人类判断方法
该论文报告了一项灵感来自图灵测试的在线游戏 Human or Not?,此游戏采用人工智能聊天机器人和人类对话,并要求参与者正确识别对方身份。该游戏吸引了超过 150 万用户参与,研究发现,在人机交互方面,普通用户正确识别人工智能的比率仅为 - 多模态大语言模型下的上下文目标检测
本文介绍了一个名为 ContextDET 的多模态模型,该模型解决了现有的 MLLMs 在物体检测方面的局限性,可以对人机交互中的视觉单元进行定位、识别和分配,意义重大。
- 共享感知体验的共生人工智能增强人类能力
该研究论文在讨论人类智能与人工智能的融合中提出了一种名为 SAISSE 的新的人工智能概念,该概念通过共享感官体验建立人工智能系统与人类用户之间的相互关系,传统神经网络将不再适用,而是应该在感性数据处理方面加以改变。该研究还探讨了隐私和道德 - 人工智能的拟人化:机遇和风险
研究人员发现,人们将人性化特征赋予 AI 系统的倾向会严重影响其在法律层面上的合规性,并对人类与 AI 之间的互动方式产生根本性的改变,实现潜在的操纵和负面影响。为了提高 AI 系统的可靠性,我们提出了一种谨慎使用人性化策略的保守策略。
- 背景信息对用户依赖人工智能系统的影响
研究了用户如何与 AI 系统进行交互以及增加必要的背景是否有助于减轻过度依赖于 AI 预测的问题,并发现提供相关背景信息有助于用户更好地捕捉错误,并减少对不正确 AI 预测的过度依赖。
- 关于困难感知的研究:人类与人工智能之间的差异
本文研究了人工智能与人类交互中的感知难度,探讨了如何确切地评估每个代理人的能力,并提出了一种实验设计,以全面检验两个代理人的感知难度,为更好地设计这样的系统做出贡献。
- AI 不能成为数据工作者的万灵药吗?关于人工智能与数据叙事协作的访谈研究
研究了 18 位数据工作者对人工智能在数据叙事中协作的需求和偏好,发现他们对与人工智能协作持有兴奋态度,但也表达了一些疑虑和原因。研究还总结了数据叙事工作流中的任务阶段和期望人工智能的角色,并提出了建议,以促进未来相关研究。
- 一次性对 Everything Everywhere 进行分割
SEEM 是一个可提示、互动的模型,可以同时将图像中的所有内容分割成多个部分,它具有多样性、组合性、互动性和语义感知等特点。
- 面向人工智能协同的语言指导强化学习
在缺乏高质量人类行为数据的情况下,使用预训练的大型语言模型生成人类语言指令的先验策略并规范化强化学习目标可以帮助人工智能代理与人类协作,并在多智能体强化学习问题中实现人工智能代理与人类偏好一致的均衡解。案例中验证了该框架的有效性。
- 学生选课注册请求
本文介绍了智能个人助手 Dona,它是 AI 教育主题下的项目,通过声控进行学生课程注册。Dona 接受人声输入,执行任务查询、优化、质量控制并以语音及显示文本表达输出,促进人工智能与人类之间的交互。该产品可应用于个人电脑、智能手机等多种场 - 人工智能与人类合作文本创作中的交互设计空间
本文探讨了大型语言模型在文本生成方面的出色表现,介绍了不同人工智能与人类交互模式下的文本生成任务谱系,并鼓励研究人员关注需要更高程度人类参与的复杂、相互依存的创作任务。
- AAAI利用反事实分析解释模型确信度
本文探究面向人工智能交互中置信度得分的反事实解释如何增强人对机器学习模型预测的理解和信任,并提出了两种理解置信度得分的方法,即基于反事实案例和基于反事实空间可视化,这两种方法可以相互补充,但也存在异同,因此需要进一步研究和设计更加精准有效的 - 人工智能写手效应:用户不认为自己拥有 AI 生成的文本,但声称自己是作者
通过两项实证研究,探究了人工智能和人类协作的个性化语言生成模型中的作者和所有权问题。发现 AI 作家效应:用户认为自己不是 AI 生成文本的所有者和作者,但不会公开声明 AI 的作者身份。研究结果与心理所有权和人机交互相关,为适应 AI 文 - 选择而非控制:使用叙事和非叙事提示方式,用户用大型语言模型进行写作
本文探讨了大型语言模型中的提示,将其分为故事性提示和非故事性提示,研究了众包工作者在不同用户界面下使用 GPT-3 写短文的行为,并发现非故事性提示需要更多的努力,人们往往结合故事性和非故事性提示来引导 LLMs。
- 用户中心设计 (IX):智能时代下的 “用户体验 3.0” 范式框架
该论文提出了一个 “UX 3.0” 范 paradigmework 和相应的用户体验方法系统来改进现有的用户体验方法,为开发智能系统中的用户体验提供方法论支持,包括生态体验,创新体验,AI 支持体验,人 - AI 交互体验和人 - AI 协 - 弥合明确人工智能与卢曼交际功能理论之间的鸿沟
本文利用 Luhmann 和 Esposito 的社会系统理论,探讨了可解释的 AI 在人工智能交互中需要面对的挑战以及应对之道,旨在通过系统论方法的应用,提供一个新的视角来理解可解释的人工智能的问题和限制。
- 评估人类语言模型交互
本文通过开发人工智能与自然语言交互评估(HALIE)框架,进行基于人的语言模型交互评估,包括交互过程、第一人称主观体验和执行效果等方面,设计并测试了五种交互式任务,研究了四种先进的语言模型,发现非交互式的性能并不总是导致更好的人工智能与自然 - 帮助我帮助人工智能”:理解可解释性如何支持人工智能交互
通过对鸟类识别应用程序的最终用户进行混合方法研究,我们发现参与者们希望获得实际有用的信息,以改善与人工智能的协作,尤其是需要参与者使用 XAI 解释以达到各种目的,包括校准信任、提高任务技能、改变他们的行为以提供更好的输入等
- 零样本和少样本学习在生成模型创意应用的人机交互中的机遇与挑战
通过提示将零样学习和少样学习赋予 AI 新任务的方法是一种用于人工智能交互的新范例。本文分析了使用提示作为新范式的交互式创意应用程序的关键机遇和挑战,并提出了四个设计目标。我们重点关注创意写作的用例,提出了具体的 UI 设计草图,HCI 和 - 文本摘要中人工智能交互设计空间的映射
本文旨在从以人为中心的角度出发,探讨在自动文本摘要系统中人们在与 AI 交互时的角色、经验和需求,设计文本摘要原型来帮助用户理解他们与 AI 的关系,进而提出设计上的考虑,以期提高用户体验。