- 强化学习中的物体位置追踪:用于关键点检测的度量(扩展版)
提出了一种用于评估 SAE 实例性能的轻量级度量标准,并验证 SAE 实例的跟踪性能与其在下游强化学习中的表现的关系。从而实现在昂贵的强化学习训练之前对 RL 性能的评估,同时提出了改进 SAE 架构以提高跟踪性能的三个关键修改。
- 大规模语言模型在机器人学中的应用:一项调查
理解和评估机器人的灵活智能是一项复杂的任务,该综述回顾了大型语言模型在机器人领域的应用和对机器人控制、感知、决策制定和路径规划等关键领域的贡献,以及它们面临的潜在挑战。
- 多模态乒乓球机器人系统
基于高准确度视觉检测和快速机器人反应的改进型乒乓球机器人系统,通过多模态感知系统的创新校准方法实现了对旋转估计至关重要的精确度更高的旋转估计方法,并展示了结合基于事件的摄像头和脉冲神经网络(SNN)输出进行准确球检测的方法。
- 不变性是泛化的关键:探究表征在视觉导航的从模拟到实际转移中的作用
数据驱动方法在机器人控制领域迅速发展,然而对未知任务领域的泛化仍然是一个关键挑战。我们认为泛化的关键在于具备足够丰富的表示以捕捉所有任务相关信息,并且对于训练与测试领域之间的无关变异具有不变性。我们实验研究了这样一种富含深度和语义信息的表示 - 基于表现性潜变空间的无监督人机动作转接
利用深度学习方法实现人到机器人动作重定向,无需人与机器人动作数据对齐,构建共享的潜空间并进行机器人运动控制,通过简单线性插值生成中间动作,多种输入模态下的机器人控制全面评估,与现有工作相比,在增加自然人机沟通的能力和提升机器人融入日常生活的 - 时间差分学习中,针对错误设计的奖励的终止状态的故意低估价值函数
本文提出了一种在终止后故意低估值以避免由于无意中的高估引起的学习失败的方法,并根据终止时的稳定度调整低估程度,从而防止由于故意低估引起的过度探索。通过模拟和真实机器人实验表明,所提出的方法能够稳定地获取各种任务和奖励设计的最优策略。
- 工业机器人操作的虚拟现实远程控制界面
提出在商用虚拟现实界面下对工业机器人进行远程操作的问题,为此,提出了一个简化的过滤方法来处理命令信号,以便在熟练掌握虚拟现实界面的情况下对工业机器人进行远程操作,这一方法已在多种接触丰富的操作任务中得到了证明
- Roll-Drop:用单参数解决观测噪声的计算
本文提出一种名为 Roll-Drop 的深度强化学习(DRL)的简单策略,通过在模拟期间使用 dropout 来考虑观察噪声,而不需要为每个状态显式地建模其分布。我们演示当将高达 25%的噪声注入观测后,成功率达到 80%,其鲁棒性比基线提 - 基于课程的通用技能模仿
本研究提出一种基于课程学习和 MoE 的模仿学习方法,用于从人类多样化的演示中教授机器人控制技能,并在复杂机器人控制任务中显著优于当前最先进的方法。
- 具有真正不等约束的软演员 - 评论算法
本篇论文在软性演员批评的强化学习中加入松弛变量,以适当处理不等式约束,最大化策略熵,从而实现了更高的稳定性和更稳定的学习,适用于真实世界的机器人控制。
- CVPR基于自监督的模拟到现实迁移的无标记相机与机器人姿态估计
提出了一种端到端的姿态估计框架,结合深度学习和几何视觉解决机器人姿态的问题,并利用自我监督的方法以及深度学习的技术训练神经网络,最终在真实环境的两个公共数据集上验证了该方法的有效性,并将其应用于视觉伺服系统中。
- 基于神经进化的强化学习质量多样性算法基准测试
本文提出了一个深度神经进化强化学习机器人控制的质量多样性基准套件,包括任务,环境,行为描述符和适应性。基准使用标准的质量多样性指标,优势和档案概要指标来量化覆盖和适应度之间的关系,同时介绍了相对于环境随机性的解决方案的健壮性度量方式。我们相 - 对称腿机器人的高效样本动力学学习:利用物理不变性和几何对称性
该论文提出了一种利用机器人系统对称性学习动态的新方法,通过设计基于神经网络的对称对象组来考虑机器人系统的几何先验知识,实现了对少样本数据实现系统动态的扩展和精准的控制,同时与现有模型相比,该方法使用更少的训练数据实现了更好的泛化。
- 通过转移模型学习连续控制策略
通过学习过渡模型,我们可以使用它来驱动摊销政策的学习。因此,我们重访了政策优化并描述了一个模块化神经网络架构,该架构从预测错误中同时学习了系统动力学和生成适当连续控制命令的随机策略,并通过与线性二次调节器的基线进行比较来评估模型。
- 机器人控制的 DRL 过程中的部分可观测性
本文研究了 Deep Reinforcement Learning 在机器人控制任务中的应用,特别是在部分可观性条件下,比较了 TD3、SAC 和 PPO 算法的表现,并提出了改进部分可观性下 TD3 和 SAC 算法鲁棒性的多步版本算法。
- 一种用于无人机自主降落平台的深度强化学习策略
本文阐述了如何将深度强化学习算法应用于机器人领域,主要关注于以物理模拟平台为基础的无人机飞行任务控制,使用基于 Gazebo 的强化学习框架进行训练,最终成功实现了无人机自主降落的任务
- 互动强化学习中反馈频率对于机器人任务的影响量化
本文研究了交互反馈频率对强化学习在连续状态和动作空间的机器人任务中的影响,证明了随着机器人操作熟练度的提高应该改变反馈频率而不是坚持使用单一的最佳反馈频率。
- 利用学习的正运动学动力学和非线性最小二乘优化进行高速准确机器人控制
本研究提出了 Optim-FKD,一种新的机器人高速控制的公式,该公式利用学习的前向动力学(FKD)模型和非线性最小二乘优化,在实时控制任务中可以解决难以预测的动态影响。该公式在小型汽车上的实验结果表明,相比于基准方法,Optim-FKD - 基于随机引入的动作转换技术用于机器人在仿真中学习
分析了用 Grounded Action Transformation 算法来解决 sim-to-real 问题的局限性,因为它们没有明确考虑到目标环境中的随机性,提出了 Stochastic Grounded Action Transfo - 基于深层模型的强化学习学习飞行
通过学习无人机动力学的概率模型,我们使用基于模型的强化学习学习了四旋翼的推进姿态控制器,完全使用生成潜在轨迹通过传播随机解析梯度来优化控制器和价值函数。