本文讨论以人类认知能力、局限性和偏见为基础的学习方法,并介绍一些方法来产生和利用对人类决策或未来决策结果的偏见或不确定性的表示。
May, 2022
通过预测人类在经济资本决策任务中的选择来测试行为决策理论在预测人类行为方面的帮助作用,并发现将某些行为理论作为机器学习系统特征进行集成提供了最佳预测结果。同时,我们发现预测人类决策最有用的理论是建立在人类和动物学习的基本属性之上,与主流拓展类决策理论有很大不同。此外,我们发现理论特征不仅应基于定性行为见解(例如损失厌恶),还应基于具有功能描述性模型生成的定量行为远见(如前景理论)。我们的分析提出了一个推导出可解释且有用的人类决策预测的方法。
Apr, 2019
本文探讨了在机器人学中,构建世界显式模型和直接学习策略两种不同的方式,以及在人机交互中如何应用心理理论对机器人对人的建模对性能的影响,同时也考虑了理论假设不准确时的影响。
Jan, 2019
通过考虑人类行为与人类信念,设计 AI 代理以促进与人类的协作,实现了更准确预测人类对 AI 行为的信念,并提升了人工智能与人类协作的性能。
Jun, 2024
本文提出了一个基于 Composable Team Hierarchies 的生成式模型,通过贝叶斯推理来推断潜在的关系并预测多个智能体在空间随机游戏中的行为,该算法可以迅速恢复智能体之间如何相关的基本模型,算法的推理模式与人类判断非常相似。
该论文呼吁从不同学科出发进行研究,以解决人类如何向人工智能提供反馈以及如何构建更健壮的基于人类协作的强化学习系统的关键问题,并提出人类模型必须是个性化,情境化和动态的观点。
Jun, 2022
本论文综合考虑了人类行为建模的三个方面 - 模拟、感知和生成,强调了它们之间的联系,并讨论了对人类行为建模未来的展望。
Apr, 2022
本文通过运用机器学习算法与博弈论的框架, 利用多个均衡状态来调节和预测智能人和机器之间的协同适应交互, 并发现某些算法可有效地控制人的行为,从而引导人机交互达到机器的最优状态。
May, 2023
该论文介绍了利用深度网络来模拟人类心智状态,并在多智能体环境中进行信念预测和强化学习的初步实验结果。
Jul, 2023
构建与人类价值观相符的人工智能系统是当前面临的重要挑战之一。本研究提出了一个形式化模型,以明确计算地表示人类价值观,为基于人类价值观的人工智能推理提供了理论基础,并在实际应用中验证了该模型的适用性。通过这种自动推理人类价值观的能力,不仅能解决价值观一致性问题,还有助于设计支持个人和社区做出更明智、与价值观相符的决策的人工智能系统。
Feb, 2024