- 基于对象任务的零样本多标签动作识别中的组合性影响
提出了 Dual-VCLIP 方法,以应对动态环境中机器人在与人类合作的任务中多标签动作识别的挑战,特别是涉及物体的任务。该方法在训练过程中仅学习两个提示,因此比其他方法更简单,通过在 Charades 数据集上验证了其性能,在完整数据集上 - 使用神经网络预测机械臂的关节力矩
准确的动态模型对于许多机器人应用至关重要。该研究采用基于机器学习技术(如神经网络)的 “黑盒子” 方法,在一个真实的六自由度操作器上比较了不同的神经网络架构和超参数选择策略,证明级联神经网络在准确度和性能方面表现最佳。
- CVPR基于记忆的在线 3D 场景感知适配器
我们提出了一个新的在线三维场景感知框架,该框架可以在机器人应用中以流式的 RGB-D 视频作为输入数据,并使用时间信息对三维场景逐帧进行处理和感知。通过引入基于适配器的即插即用模块,我们构建了具有时间学习能力的离线模型的存储器,以缓存和聚合 - AST-2:单层和双层的二维声波柔性触觉皮肤
通过利用声学信道和分析振幅调制实现各种触觉特征的精确估计,本研究提出了一种创新的、成本效益高的声学软触觉皮肤设计,成功应对了触觉特征估计的挑战,并在机器人应用中展示出了其实际和成本效益高的解决方案。
- Fit-NGP:将物体模型与神经图形基元拟合
一种基于密度场重建方法的准确稳健 3D 物体姿态估计系统,适用于小型具有挑战性反射表面的已知 3D 模型对象,并通过单个手腕摄像头驱动的机械臂,可以在几分钟内从零开始扫描场景、检测和估计多个对象的 6 自由度姿态。
- voraus-AD 数据集用于机器人应用中的异常检测
工业机器人中的异常检测及其在机器人应用中的数据集和基准方法介绍和评估。
- 基于关键点的草莓姿态估计用于机器人采摘
选择性机器人采摘是解决现代农业劳动力短缺的一种有希望的技术解决方案,本文介绍了一种基于关键点的水果方向估计方法,可以直接从 2D 图像中预测 3D 方向,并在两个不同的草莓图像数据集上实现了与先前工作相比误差降低约 30%的最先进性能,适用 - 基于对抗学习方法的单目 RGB 图像实际可行的三维人类场景重建
通过使用隐式的场景元素特征表征来区分合理和不合理的人体和物体对齐,在机器人感知中提出了一个以图形为基础的整体三维人体场景重建的方法,该学习方法实现了与现有基于优化的方法相当的三维重建质量,且不需要推理时间优化,适用于机器人导航等潜在应用中。
- 通过把握进行自监督实例分割
提出一种自我监督的方法,利用机器人的抓取交互收集实例分割模型的分割监督,该方法可以在没有昂贵的人工注释的情况下,通过对成千上万的抓取交互进行分割来帮助机器人从图像中剪切和粘贴出物体,并显示其对于实例分割任务的重要性。
- 基于实时模型无关深度强化学习的串级弹性执行器力控制
该研究使用深度强化学习(DRL)方法,通过 Proximal Policy Optimization(PPO)算法,在 SEA 振荡系统的硬件环境中训练一个 DRL 策略,以实现高精度的力控制任务。研究结果表明,该 DRL 策略优于传统的基 - 异步多智能体强化学习用于高效实时多机器人协同探索
我们提出了一种异步的多智能体强化学习算法,Asynchronous Coordination Explorer (ACE),可以在处理机器人探索问题时减少实际探索时间,并通过使用基于 CNN 的策略将遗失的机器人维护在一个团队中。
- Karolos:一个开源的机器人任务强化学习框架
介绍了一个面向机器人应用的强化学习框架 Karolos,重点是转移场景、模块化环境架构和现有 RL 算法的实现,以及并行化环境的架构来加快实验速度。
- CVPRBNV-Fusion: 使用双层神经体积融合进行密集三维重建
本篇论文提出了一种基于神经隐式表达和神经渲染的双层神经体积融合方法,用于增量式地将新的深度图像融合到全局神经隐式表示中,以实现密集的 3D 重建,评估表明此方法在多个数据集上均得到了显著的改进。
- 利用单模型教师提升多模态学习
通过结合融合目标和单模态蒸馏的方法,提出了一种新的多模态学习方法 Uni-Modal Teacher 解决模态失败问题,为实现真实世界的机器人应用奠定了基础。
- PLUMENet:基于立体图像的高效 3D 物体检测
本文提出了一种利用立体照相机生成 3D 物体点云,并将深度估计和物体检测任务以同一度量空间进行统一的方法,其性能优于现有方法,具有更快的推理时间。
- RTAMT:基于 STL 的在线稳健性监控
介绍了一个在线监测库 RTAMT 和它的界面感知扩展 IA-STL,提供离散和连续时间解释;同时开发了一个与机器人应用常用环境 ROS 集成的工具 RTAMT4ROS。在两个机器人案例研究中评估了 RTAMT 和 RTAMT4ROS。
- 事件驱动视觉识别任务中的准确性差距缩小
本文研究基于事件驱动的异步脉冲神经网络,并通过将经典的基于帧数据训练的卷积神经网络转换为异步网络,以在计算预算紧张的条件下实现低功耗、快速和嵌入式的神经网络视觉解决方案,其中应用范例是机器人跟踪移动目标。研究发现,异步网络的分类准确率仅比同 - V2CNet:视频翻译机器人操作指令的深度学习框架
该研究提出了一种新的深度学习框架 V2CNet,用于自动将演示视频翻译成可直接用于机器人应用的命令。这个网络具有两个分支,分别用于编码视觉特征、序列化生成命令和学习精细行动。研究结果表明,V2CNet 在大规模数据集上的性能优于最新的其他方 - ECCV从点云分割中抗遮挡目标旋转回归
本文提出一种基于卷积神经网络的旋转估计方法,可以直接从原始点云片段中回归姿态向量,相较于现有方法更具鲁棒性且无需任何后处理,证明其在已知刚体对象的旋转估计方面具有竞争性表现。
- 多模态多人行为生成建模
提出了一种建模和预测人类行为的方法,将人类建模为图形模型中的节点,并为每个人学习多模态概率分布,以预测日常交互中的未来行为。