一种用于基于偏好奖励学习的泛化获取函数
本文介绍了一种基于用户反馈的偏好学习方法,利用高斯过程 (GP) 对奖励函数进行建模,在不增加结构限制并避免数据不足和刚性的问题的情况下,仅通过比较轨迹即可有效学习机器人任务的表达性奖励函数。
May, 2020
通过批次主动的偏好学习方法,本研究开发了一组新的算法,能够有效学习奖励函数并在短时间内生成少量查询,实验结果表明该算法在机器人学习中的多种任务上表现良好。
Feb, 2024
本文提出了一种从用户收集多源数据的框架,该框架结合了演示和偏好查询以学习奖励函数,可用于机器人模型中,并且在移动操作器 Fetch 上执行的模拟实验和用户研究验证了我们的方法的优越性和可用性。
Jun, 2020
本文介绍了一种新的算法,批量主动偏好学习,它使用尽可能少的数据样本进行有效的奖励函数学习,并具有较短的查询生成时间。我们为批量主动学习问题引入了几个近似,并为我们的算法的收敛提供了理论保证。通过在模拟中进行各种机器人任务的实验,我们的结果表明我们的批量主动学习算法仅需要少量计算时间短的查询。最后,我们将展示我们的算法在学习人类用户喜好的研究中的应用。
Oct, 2018
研究人机交互中智能机器人的学习奖励功能从而完成任务,探讨通过对多种机器人轨迹的比较反馈方式学习机器的奖励功能,包括两两比较、评分、最佳选择等,并提出主动学习技术,以优化从用户反馈中获得的期望信息,进而在自主驾驶模拟、家庭机器人、标准强化学习等领域展示了这种方法的适用性。
Oct, 2022
提出了一种基于生成式逆强化学习的用户行为偏好建模方法,该方法可以自动学习用户的行为奖励函数,并通过辨别式演员 - 评论家网络和 Wasserstein 生成对抗网络进行建模和解释,实验证明该方法在交通信号控制、在线推荐系统和注视路径预测等场景下优于现有的方法。
May, 2021
使用多任务学习来实现基于人类反馈的强化学习,通过将偏好模型训练在以前的任务数据上,我们仅需要很少的查询就可以在 Meta-World 中训练出具有更好效果的机器人策略模型。
Dec, 2022
本文针对机器人学习中的目标函数问题,提出了使用特征查询来增强比较查询的方法,并使用派生的主动查询选择算法,在仿真和真实用户测试中验证了指定特征增强查询比比较查询可获得更丰富的信息,可以更快地提取信息,从而更好地匹配用户行为偏好。
Feb, 2018
该论文介绍了一个新的方法,通过将采集函数作为学习预测器并通过强化反馈训练它,以打破模型选择中的恶性循环;该系统由贝叶斯神经网络、自举采集函数、概率状态定义和另一个贝叶斯策略网络组成,可在三个基准数据集上始终发现新的更好的采集函数。
Jun, 2019