该研究提出了一个利用无人干预的关节行动示范学习人类用户模型的框架,以便机器人能够计算出一项与人类的合作任务相适应的鲁棒策略。该框架利用无监督学习算法将示范动作序列聚集到不同的人类类型中,并使用逆强化学习算法学习代表每种类型的奖励函数。最后,该方法得到了验证,并在实验室中演示了同一个人类与小型工业机器人配合完成任务的可能性。
May, 2014
本文探讨了分布式异步策略学习作为实现机器人具备普适性和提高复杂任务训练效率的手段。实验证明,使用这种方法可以提高机器人对任务的泛化、利用和训练时间效率,从而在视觉门开启任务中取得更好的效果。
Oct, 2016
通过多智能体竞争、自我监督的自动课程设置以及规模化的强化学习算法,我们发现代理创建了多个不同的新兴策略,其中许多需要复杂的工具使用和协调,并提供了有关多智能竞争可能扩展至更复杂环境的证据。
Sep, 2019
本研究通过一个协同迷宫游戏设计,用深度强化学习技术实现了人机共同协作。研究结果证明人机共同协作相互影响,在时间的推进下不断适应并建立起相应策略,这为人机智能的协作提供了可行的方案。
Mar, 2020
本文探究如何培训出更好地与人类合作的机器人,提出了一种名为Fictitious Co-Play的方法,通过与自己过去的训练成果和自己对战来训练代理人合作,实证实验显示在与新型代理人和人类伙伴(比如二人协作烹饪模拟器)合作时,使用FCP方法产生显著更高的学习效果与人类喜好。
Oct, 2021
该研究探讨机器人与人类的互动,提出了一种基于机器学习的方法,能够训练机器人逐渐适应人体动态的变化,并使机器人与人类在协作过程中达到更好的效果。
Mar, 2022
论文介绍了一种算法形式化的机器人与动态人类相互协调的方法,使用机器人的低级状态、行为和奖励,结合高级别的人类政策和政策动态来实现,该方法在博弈和建造任务中进行了实际人类协作实验,表明比基线方法更好地学习了与不完美、嘈杂、时变代理协调。
Dec, 2022
人机协作中基于偏好的强化学习(PbRL)是一个活跃的研究领域,并在单个代理人和观察者在环路场景中取得了显著的进展。然而,在人机合作的多代理强化学习框架中,在人类积极参与并表达对代理行为偏好的应用仍然是未知的。
Dec, 2023
在复杂的模拟环境中,研究表明人工智能与人类的合作胜过仅有人类或仅有人工智能代理的情况,并开发出了一种用户界面,使人类有效地协助人工智能代理。
研究通过计算建模和优化技术,提升人工智能与人类队伍的协同性能,其中人类和机器智能代理由于环境知识不完整而发挥亚最优能力,并采用在线贝叶斯方法推断人们愿意接受机器的协助,实验结果显示协作方式与团队性能、用户信任和对机器的好感度存在显著关联。
Mar, 2024