关键词explainable ai planning
搜索结果 - 5
- 在基于论证的对话中逼近人类模型
通过论证式对话的方式,我们提出了一个新的框架,使得 AI 代理能够学习和更新概率性的人类模型,从而更好地理解人类的思维状态,通过人类对其论点的信任和对自己论点的确信程度,调整概率分布,并在论证场景中的人类主体研究中证明了该方法捕捉了人类信念 - DR-HAI:基于辩证法的人工智能交互中的论证调和
DR-HAI 框架是用于增强人工智能交互的一种基于论证的新型框架,具有多发性协调范式,并不预设人类用户的模型,实现了可交互式协调,以解决解释者和被解释者之间的知识差异。研究结果表明 DR-HAI 是促进有效人机交互的一种有前途的方法。
- 关于模型调节:当机器人不知道人类的模型时如何调节?
本文提出了一种基于对话的方法来计算模型协调问题的解决方案,该方法假定机器人不知道人类模型,机器人和人类共享计划域的谓词集,并且交流的内容是关于动作描述和流形值的交换。通过对话,机器人向人类发送潜在的解释,被称为提案,人类回复其提案的评估,被 - 基于子目标的不可靠智能决策支持系统解释
本文研究了面向新手用户的非稳健智能决策支持系统的互动,介绍了一种新颖的基于子目标的解释类型,即补充传统智能决策支持系统输出的信息,以提高用户任务表现和系统的鲁棒性。研究表明,基于子目标的解释可实现更好的用户任务表现、提高用户区分优化和非优化 - AAAI可解释计划代理的可视化
本文介绍了一种可视化 Explainable AI Planning 代理的能力,该代理可以支持人们做出决策,并展示了如何将规划可视化作为规划解释问题来快速提供其计划的模型可视化。