- 儿童对生成式视觉和基于文本的人工智能模型的认知模型
研究表明,五至十二岁的儿童对于生成式人工智能模型具有积极的态度,他们对于人工智能的认识和使用具有巨大的潜力,并且与真实物体和其他技术概念相比,儿童对生成式人工智能模型的理解仍存在较大的研究空白。
- 可解释的人工智能与人类互动:一种规划视角
AI 系统与人类的相互作用中,理解计算机中的心智模型和说明性交流对于实现合作场景和操纵人类期望至关重要。
- DarkGS: 学习神经照明和 3D 高斯重照技术,用于黑暗环境下的机器人探索
我们介绍了一种新的框架,使用数据驱动方法来模拟和校准摄像机 - 光源系统,并应用于创建一种可重新照明的 3D 高斯场景模型,从而实现了从新的视点进行实时、逼真渲染的能力,并展示了我们所提出的模拟器和系统在各种实际环境中的适用性和强健性。
- 唱出电子身体:机器人具象对用户期望的影响
使用多模态特征预测用户对给定机器人的社交和物理能力的期望,这些特征提供了关于机器人的一般心智模型的信息,可以融入互动设计和物理设计中。
- 捕获人类对人工智能的心理模型:一种项目反应理论方法
本研究提出了一种基于项目反应理论的框架来模拟人们对人工智能队友的感知,并使用实验数据测试研究问题,结果表明人们对人工智能代理的性能期望显著高于其他人,并具有更小的问题类型差异。
- 以心智模型为中心的人工智能共生景观
本文介绍了一种更加广泛适用的人工智能框架 —— 广义人类感知交互(GHAI),通过六类(心理)模型来捕捉人工智能领域中的各种工作,并确定这些工作支持的基本行为模式。使用该框架可以确定当前文献中的潜在差距,提出未来的研究方向以解决这些缺陷。
- 机器人能力和意愿对跨任务基于信任的决策的影响
本文探讨人类与机器人的协作中,心理模型对信任与决策的影响,并通过一项在线测试发现,人们对机器人的能力和意图的估计与总体自我报告信任强相关。但要做出正确的决策,人们需要(并使用)多面向的心理模型,而不是仅仅校准总体信任水平。
- 让凡人理解强化学习:一项经验研究
本研究通过用户研究,探究关于解释对非专家理解强化学习代理的影响,研究了视觉化 saliency 和最近的解释类型奖励分解条,并设计了实验以比较参与者对于简单实时战略游戏中 RL 代理的心理模型。结果表明,需要同时结合 saliency 和奖 - 影响力网络图:代理人信念和决策过程的表达形式
本文提出了一种名为影响网络图的紧凑、自然和高度表现力推理语言,用于推理代理人的信念和决策过程,通过实例展示 NIDs 可以用于描述冲突和循环信念结构以及某些形式的有限理性。