学习代理人异质群体中的道德行为动力学
该文探讨了将道德选择嵌入智能系统的重要性,提出了使用强化学习设计奖励结构以探究道德问题,并在三种社交困境游戏中分析了不同类型的道德如何影响智能体的行为,探讨了这些发现对于智能和混合人工智能社会的发展的影响。
Jan, 2023
下一代人工智能系统的安全性越来越受关注,需要将道德性融入自主代理中。本文系统化地介绍了在机器中引入道德性的现有方法,并提出了需要更多混合解决方案创建适应性强、稳健可控且可解释的代理的论点。同时,通过案例研究和评估道德学习代理的有效性,探讨了未来人工智能安全和伦理面临的挑战。
Dec, 2023
该研究论文提出两种训练方法实现不同的期望,通过在简单环境中训练智能体在道德不确定性下行动,从而促进具有道德能力的代理人的进展,并突显强化学习对道德哲学的计算基础的潜力。
Jun, 2020
本文探究了利用深度强化学习机制使智能体集体行为呈现有序模式的过程,并通过仿真大规模掠食者和被掠食者的世界来验证自然规律是否同样适用于人工智能系统中,实验结果表明基于不同自身利益驱动的智能体群体行为呈现出类似于生态学中的 Lotka-Volterra 模型的有序模式,这种集体行为的出现可以由自组织理论解释。
Sep, 2017
该研究利用社会心理学中的互相依存理论,探究强化学习在混合动机游戏中的效果,发现代理人的群体异质性对于代理人的行为变化有着显著的影响,并在两个混合动机 Markov 游戏中得到实证结果。
Feb, 2020
我们提出了多目标强化主动学习 (Multi-Objective Reinforced Active Learning, MORAL) 方法,通过维护标量化权重的分布,交互式地调整深度强化学习代理向各种偏好的方向发展,从而将社会规范的不同展示组合成帕累托最优策略,并消除了计算多个策略的需要。我们在两种场景中对 MORAL 的有效性进行了实证验证,并将其视为学习奖励的多目标强化学习 (Multi-objective RL) 的一步,弥合了当前奖励学习和机器伦理文献之间的差距。
Dec, 2021
该论文研究在多智能体环境下,独立强化学习代理人是否可以学习使用社会学习来提高性能,并发现通过在训练环境中强加约束条件和引入基于模型的辅助损失,可以获得广义的社会学习策略,使代理人能够发现不是通过单个代理人训练获得的复杂技能并且通过从新环境的专家那里获取线索在线适应新环境。
Oct, 2020
基于社会规范的存在及其制约效应,本文提出构建一种社会学习动态系统,利用所有规范事件以培训代理人,并包含分类器和惩罚动机等模块,从而实现多代理人系统中的集体行动和实现对于社会利益有益的结果。
Jun, 2021
人工智能代理在现实世界中的部署需要与人类(以及其他异构的 AI 代理)可靠地合作。为了提供成功合作的形式化保证,我们必须对合作伙伴代理的行为做一些合理的假设。这项工作研究了在一个有限重复的、两个玩家的一般化总和矩阵游戏中与一个代理人群合作的问题,通过个体理性学习者的假设和在某个 Pareto 有效均衡策略下高概率实现至少与该策略相同效用,我们证明了这些假设本身不足以保证与目标人群成员的零 - shot 合作。因此,我们考虑了通过先前观察到的人群成员相互作用来学习与这样的人群合作的策略问题,并给出了学习有效合作策略所需样本数量的上限和下限。最重要的是,我们证明了这些界限可以比通过一种 “天真” 的问题简化到模仿学习中产生的界限更强。
Jun, 2024