不确定性建模
研究机器学习中先前观察到的人们的选择,作为贝叶斯反向规划的先验,建议了一种引入计划偏差和时序不一致性的算法,通过构造计划生成模型,分析了其对偏差和忠诚度的推断。人体实验表明,人们也会从系统性偏离最佳行为中解释选择,并考虑这些偏差。
Dec, 2015
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
本文提出了两个贡献:通过预训练神经网络和构建 “认知模型先验” 以捕捉人类行为的归纳偏见,使得机器学习方法在小样本数据集上能够显著提高预测准确率;基于超过 240,000 项人类决策的大规模数据集,揭示出认知模型先验适用的情况,并为人类决策预测建立了新的基准。
May, 2019
本文提出成立跨学科组织,聚焦于理解 AI 系统对个体决策偏好的影响,运用各学科概念对偏好进行操作化,提出偏好变化的框架,并明确了可接受的和不可接受的变化。
Mar, 2022
通过将 AI 辅助决策视为人类决策过程中的 “推动”,我们提出了一个计算框架,用于解释不同形式的 AI 辅助对决策者的影响,并根据真实数据对其进行评估。研究结果显示,该框架在准确预测 AI 辅助决策中的人类行为方面优于其他基准模型,并提供了不同认知风格的个体受到不同形式 AI 辅助时的洞见。
Jan, 2024
研究了人工智能辅助下的人类决策制定,结合超过 100 篇论文总结了该领域的三个重要方面,即决策任务、AI 模型和 AI 辅助元素以及评估指标并提出了未来研究建议,强调建立共同框架以促进人工智能和人机交互社区协作,形成推广的科学知识。
Dec, 2021
我们提出了一种基于规则的、基于高概率和词典排序偏好的语义、透明决策程序的质性决策模型,该模型可以描述人们如何做出简单的决策,并使计算机程序能够做同样的事情。
Feb, 2013
通过理解人类认知中心的特点,提出了使用 “上下文重要性和效用(Contextual Importance and Utility method)” 等方法去实现可解释的 AI 决策。
Jan, 2021
通过预测人类在经济资本决策任务中的选择来测试行为决策理论在预测人类行为方面的帮助作用,并发现将某些行为理论作为机器学习系统特征进行集成提供了最佳预测结果。同时,我们发现预测人类决策最有用的理论是建立在人类和动物学习的基本属性之上,与主流拓展类决策理论有很大不同。此外,我们发现理论特征不仅应基于定性行为见解(例如损失厌恶),还应基于具有功能描述性模型生成的定量行为远见(如前景理论)。我们的分析提出了一个推导出可解释且有用的人类决策预测的方法。
Apr, 2019