- WatChat: 调试心智模型解释困惑的程序
使用计算认知科学的方法,我们利用程序合成技术来自动推断可能导致用户对程序行为感到惊讶的误解,以此提供简明实用的解释。甚至可以将我们的方法倒转,用于合成示范性教学程序,以诊断和纠正学生的误解。
- 提升有效人工智能决策:人类学习在正确依靠人工智能建议中的角色
人工智能和人类协作的真正潜力在于利用人类和人工智能的互补能力,实现超越个体人工智能或人类的联合绩效,即实现互补团队绩效 (CTP)。本研究通过 100 位参与者的实验展示了学习与适当依赖之间的关系,为分析依赖和有效设计人工智能决策提供了基础 - 一种基于心理模型的信任理论
本文提出了一种基于心理模型的信任理论,它不仅能够被用于推断信任,从而提供了一种替代心理或行为信任推断方法,而且还能作为基础用于任何信任感知的决策框架,通过对人类研究的对比,我们发现本文所提出的理论比最常用的信任量表(穆尔量表)更符合人类观察 - EMNLPDREAM-FLUTE:借助梦幻长笛理解比喻语言
提出了一种名为 DREAM-FLUTE 的比喻语言理解系统,它通过构建 “mental model” 来实现理解,将场景描绘成意义明确的语言,以此来实现事件推理,并取得了非常好的结果。
- 当语言模型的可解释性与我们对语言的心理模型不一致时,请小心理性陷阱!
通过决策树模型分析当前的解释过程无法达到目标的原因,进一步强调需要从多个角度进行人类中心设计,逐步适应用户期望的解释模型的可信度、完整性和用户心理模型。
- AAAI通过示例教人何时听从分类器
研究了人工智能与人类合作决策的有效性,提出基于样例的教学策略,利用近邻规则和代理的强弱进行教学,有效提高任务表现。
- 用表示编辑距离衡量新颖性
本文主要探讨了一种测量代理人认知模型中技能程序编辑过程的困难程度的方法 —— 有效表征的编辑距离(RED),提出了 RED 可以作为衡量面对陌生场景时适应难度的度量,并且通过示例讲解了 RED 的应用。
- EMNLP先建立问题场景再建模,提升可反驳推理能力
研究了神经模型是否能从构思问题场景中受益,并且在三个不同的可废除推理数据集上,我们的系统 CURIOUS 实现了新的最先进技术,这表明通过引导系统 “考虑” 问题并明确地建模场景,而不是本能地回答问题,可以提高性能。
- ICML基于心理模型的策略序列解释
本研究提供了使用基于心理模型的强化学习算法对解释进行增强的机制,并通过在线实验发现基于心理模型的策略可能会优于随机策略,在多个顺序解释中提高相关信息的传达和可读性。
- 通过关键状态建立适当的信任
本研究基于关键动作生成模型提出了一种新方法,通过明确展示机器人对此任务关键状态的理解,去帮助用户建立更为准确的机器人策略认知模型,从而提高机器人合作过程中人类的决策效率。