人机交互中的非语言提示:传播学视角
研究了课堂人机交互情景以及在机器人认知架构中运用人类启发的社交凝视模型以促进更无缝的社交互动,详述了研究中探索的人机交互情景和社交凝视模型,并强调在课堂人机交互情景中利用这样的关注模型的优点,以及即将进行的研究目标。
Dec, 2023
本研究致力于研究人类如何利用共享的运动副本和动作模型等非语言视觉线索阅读他人的行为意图,研究人员使用实验数据和计算模型来验证其在人机交互领域中的应用,结果表明该模型对于解读人类行为意图和实现可读性交互是可行的。
Feb, 2018
本研究采用强化学习方法建立了一个多模态情感交互框架,利用人类用户的情感状态作为交互的奖励因素,优化了机器人的行为策略,并针对用户进行个性化情感交互来增强社交场景下机器人的自然性和吸引力。
Oct, 2021
我们提出通过整合非语言提示来增强社交机器人的共情能力。我们的主要贡献是设计和标记了四种共情的非语言提示:语音、行动(手势)、面部表情和情绪,用于社交机器人中。这些提示是利用大型语言模型(LLM)生成的。我们为机器人开发了基于 LLM 的对话系统,并评估其与人类咨询师定义的社交提示的一致性。初步结果表明,机器人的回应呈现出明显的模式,如对平静和积极社交情绪如 'joy' 和 'lively' 的偏好以及频繁点头示意。尽管存在这些倾向,我们的方法已经导致开发出了能够感知上下文并进行更真实互动的社交机器人。我们的工作为未来关于人机交互的研究奠定了基础,强调了在创建社交和共情机器人方面,语言和非语言提示的重要作用。
Aug, 2023
研究了人类与机器人进行任务协作时的语言交流方式问题,提出了一种方法,使机器人能够通过口头命令或状态传递行为进行最佳决策,并通过实验验证了使用口头命令是在保持用户信任的同时提高有效沟通的最佳方式。
Jun, 2017
本文系统回顾了自 2010 年以来,针对面对面共同交互的人际关系中显示的非语言线索进行自动分析的最新研究成果,包括建模社会特征、识别社会角色和社会关系,并分析了非语言线索分析的数据、传感方法和计算方法等三个主要元素。
Jul, 2022
通过调节非语言音频表达的声学参数值,基于强化学习算法和人类反馈,研究评估了协作机器人内部状态的非语言音频表达对用户是否准确理解机器人状态的影响。
Apr, 2024