使用实际因果的道德强化学习
该研究论文提出两种训练方法实现不同的期望,通过在简单环境中训练智能体在道德不确定性下行动,从而促进具有道德能力的代理人的进展,并突显强化学习对道德哲学的计算基础的潜力。
Jun, 2020
本论文提出了适用于行动语言的实际因果关系定义,以联系自动化规划和因果关系,并显示了因果关系在伦理推理模拟中的重要性,从而使领域得以处理先前无法解决的情况。
May, 2022
该文探讨了将道德选择嵌入智能系统的重要性,提出了使用强化学习设计奖励结构以探究道德问题,并在三种社交困境游戏中分析了不同类型的道德如何影响智能体的行为,探讨了这些发现对于智能和混合人工智能社会的发展的影响。
Jan, 2023
下一代人工智能系统的安全性越来越受关注,需要将道德性融入自主代理中。本文系统化地介绍了在机器中引入道德性的现有方法,并提出了需要更多混合解决方案创建适应性强、稳健可控且可解释的代理的论点。同时,通过案例研究和评估道德学习代理的有效性,探讨了未来人工智能安全和伦理面临的挑战。
Dec, 2023
本文展示了一种使用利用现有的 normative supervisor 框架的方法,通过 MORL 技术以平衡非道德目标和避免违规的道德目标,在自主代理中实现安全、道德或合法行为,且不受惩罚强度大小的影响。
Mar, 2022
本文综述了因果强化学习的文献,介绍了其基本概念和如何应对非因果强化学习中的主要挑战,分类并系统地回顾了现有的因果强化学习方法,最后概述了该新兴领域的未解决问题和未来方向。
Jul, 2023
我们提出了多目标强化主动学习 (Multi-Objective Reinforced Active Learning, MORAL) 方法,通过维护标量化权重的分布,交互式地调整深度强化学习代理向各种偏好的方向发展,从而将社会规范的不同展示组合成帕累托最优策略,并消除了计算多个策略的需要。我们在两种场景中对 MORAL 的有效性进行了实证验证,并将其视为学习奖励的多目标强化学习 (Multi-objective RL) 的一步,弥合了当前奖励学习和机器伦理文献之间的差距。
Dec, 2021
通过对学习策略与默认的安全策略进行比较,我们提出了一种对反事实伤害进行约束的方法,在考虑不确定性和复杂环境表示的基础上实现了学习更安全策略的目的。
May, 2024