智能决策者通用模型的探索
本研究提出了一种通用模型,旨在设计具有社交智能的个体理性学习者的 AI,以实现其与其他类型的代理人的有效合作。该研究重点讨论了合理性、后悔和泛饱和效率对于实现社交智能的影响,并探讨了构建稳健的系统的重要性。
May, 2023
提出了一种基于社交动态的常识道德学习模型,描述了道德困境的效用函数,用于解决抽象的道德维度上的交易,并通过贝叶斯模型刻画了个体和团体的社会结构,从有限的观测数据中推断出个体和团体的道德价值,并将该方法应用于自主车辆道德困境数据。
Jan, 2018
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
这篇论文采用统计学的角度对强化学习和互动决策的基础进行了概述,提出了一个统一的框架来解决探索与利用的困境,同时使用频率学派和贝叶斯方法,并通过监督学习、估计和决策之间的联系和相似之处作为一个主题展开。特别关注于函数逼近和灵活的模型类别,如神经网络。涵盖的主题包括多臂老虎机、背景老虎机和具有高维反馈的强化学习。
Dec, 2023
该研究论文介绍了一种新的决策框架,它促进不同模型所做的决策的一致性,同时利用外部知识。通过利用整数线性规划(ILP)框架,我们将各种模型的预测映射为全局归一化和可比较的值,同时结合决策的先验概率、置信度(不确定性)和模型的预期准确性的信息。我们的实证研究证明了我们的方法在多个数据集上优于传统基准。
Feb, 2024
该研究提出了使用认知模型作为模拟人类代替人类与人工智能交互和收集反馈以提高训练效率的方法,并在道德决策制定方面实践,表明这是计算认知科学对人工智能的重要贡献。其中使用强化学习代理与认知模型交互学习公平性,并能理性调整行为,以此为例说明认知模型作为人类模拟器在训练人工智能系统方面是有效的。
Oct, 2022
这篇论文讨论了博弈论在共享资源议题上的应用,指出标准博弈论方法在处理复杂资源动态预测上的局限,并探索强化学习在该领域的应用,并且发现学习、排除和公平性在资源共享问题中是如何关联的。
Jul, 2017
本文检查了基于决策制定的基础模型的范围,并提供了理解问题空间和探索新研究方向的概念工具和技术背景。通过各种方法,例如提示、条件生成建模、规划、最优控制和强化学习,审查了将基础模型用于实际决策制定应用的最近方法,并讨论了该领域的常见挑战和开放问题。
Mar, 2023