将基于人工智能的决策制定与非理性人类行为调和:一种量子概率方法
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
本文分析了模拟人类情感决策过程应该基于的人工智能基本原理,比较了基于量子理论与经典术语的两种方法。虽然认知过程与量子测量具有许多形式类似的特征,但模拟人类决策过程时,情感人工智能没有必要依赖于量子系统的功能。情感人工智能的运作避免了传统决策制定的许多行为悖论,使决策具有动态性。
May, 2023
本文提出了两个贡献:通过预训练神经网络和构建 “认知模型先验” 以捕捉人类行为的归纳偏见,使得机器学习方法在小样本数据集上能够显著提高预测准确率;基于超过 240,000 项人类决策的大规模数据集,揭示出认知模型先验适用的情况,并为人类决策预测建立了新的基准。
May, 2019
通过预测人类在经济资本决策任务中的选择来测试行为决策理论在预测人类行为方面的帮助作用,并发现将某些行为理论作为机器学习系统特征进行集成提供了最佳预测结果。同时,我们发现预测人类决策最有用的理论是建立在人类和动物学习的基本属性之上,与主流拓展类决策理论有很大不同。此外,我们发现理论特征不仅应基于定性行为见解(例如损失厌恶),还应基于具有功能描述性模型生成的定量行为远见(如前景理论)。我们的分析提出了一个推导出可解释且有用的人类决策预测的方法。
Apr, 2019
本文简明扼要地综述了人类行为量化模型领域中最重要的两个方法:基于探索和反馈学习模型或策略的技术以及直接模拟人类推理机制(思想和偏见)而无需通过试错法进行学习。
May, 2022
研究分析了开发学习人类偏见和政策的人工智能的危险,并构建了一个推荐系统模型,毕竟对于 AI 来说,了解人类的错误看法比了解人类价值更加危险,因此直接学习人类价值会更为优先。
Feb, 2022
通过将 AI 辅助决策视为人类决策过程中的 “推动”,我们提出了一个计算框架,用于解释不同形式的 AI 辅助对决策者的影响,并根据真实数据对其进行评估。研究结果显示,该框架在准确预测 AI 辅助决策中的人类行为方面优于其他基准模型,并提供了不同认知风格的个体受到不同形式 AI 辅助时的洞见。
Jan, 2024
基于数据驱动算法的人工智能在当今社会中已普遍应用,但在许多情况下,尤其是当风险较高时,人类仍然作出最终决策。本研究引入了一种新的方法框架,可用于在无额外假设的情况下实验性地回答这个问题。我们采用标准分类指标来衡量决策者做出正确决策的能力,通过单盲实验设计随机对案例进行人工智能生成的建议,并由人类作出最终决策,我们比较了三种可选的决策系统的表现:单独人类、人类辅助人工智能和单独人工智能。对我们自己进行的随机对照试验中的数据应用了提出的方法论,发现人工智能建议并没有提高法官决定是否强制缴纳保释金的分类准确性。分析还表明,单独人工智能的决策通常比人类决策(无论是否辅助人工智能)表现更差。最后,相比白人被捕者,在对非白人被捕者的针对性保释方面,人工智能建议往往不必要地更频繁地强制缴纳保释金。
Mar, 2024