Where2Explore: 面向未见过的可动物体新类别的少样本可用性学习
介绍了一种单次打开机会学习(OOAL)方法,通过仅使用基本目标类别的一个示例进行训练,但可以识别新的对象和作用条件。实验表明,该方法在两个作用条件分割基准测试中胜过了现有模型,仅使用不到全量训练数据的 1%,并展现了对未知对象和作用条件的合理泛化能力。
Nov, 2023
通过结合物体层面的可行先验和环境约束,我们提出了一个环境感知的可行性框架,该框架能够在考虑环境约束的情况下学习可行性,对于包含单个遮挡物和复杂遮挡物组合的场景具有良好的泛化效果。
Sep, 2023
该研究提出了一种基于卷积神经网络和注意力机制的少样本视觉学习系统,旨在实现在测试时只使用少量训练数据就能有效地学习新类别,同时不会忘记原先基础类别的模型。经过在 Mini-ImageNet 数据集的测试,该模型在 1-shot 和 5-shot 设置下都取得了 56.20% 和 73.00% 的最优成绩。
Apr, 2018
本文旨在研究如何通过生成模型来让一个通用机器人学习视觉契合性的表征,以便于机器人可以在新环境中使用它的模型进行采样,进而进一步训练其策略从而达成其目标。这种做法可以被用于训练以原始图像输入为操作对象的目标编码策略,并可以通过我们提出的契合性导向探索机制快速地学习如何操作新对象。我们展示,通过五分钟的在线学习就可以在新场景下使用之前的数据训练机器人完成抽屉打开,抓取和放置的任务。
Jun, 2021
通过从人类视频中提取联系点、并借鉴人类思维方式,我们提出了 Robo-ABC 框架,在不需要任何手动注释、附加训练、部分分割、预编码知识或视角限制的情况下,使机器人能够通过检索视觉或语义上相似的对象来获得关于操作性的信息,并将其映射到新对象上,从而实现对类别之外的对象的零样本操作。在视觉操作性检索上,Robo-ABC 达到了相对于最先进的端到端操作模型的 31.6% 的显著提高,并通过现实世界的物体抓取任务实验,取得了 85.7% 的成功率,证明了其在真实世界任务中的能力。
Jan, 2024
通过自我监督方法,以及使用相对方向和近距离的人物和物体点之间的关系定义的新型能力表征,我们提出了一种创新的方法来生成三维能力示例,展示了我们方法和表征的有效性。
Jan, 2024
本研究使用视觉契合技术,通过预测关键点的接触信息,提出了一种端到端的控制策略学习框架,可以实现在不同类型的操纵任务中的泛化。结果显示,我们的算法在成功率上大大优于基线算法,包括基于视觉契合和强化学习方法。
Sep, 2022
本文介绍了使用少量的视觉示例逐步训练机器人识别不同物体类别的实用系统,并在表格整理任务中演示了该系统的能力。实验评估表明,我们的方法几乎可以达到一次性使用所有示例(批量训练)训练的系统的性能水平。
Jul, 2020
本文介绍了一种针对开放式交互集的类不可知对象的功能类别识别方法,该方法通过无监督学习认知对象互动之间的相似性,从而诱导对象功能群簇,为构建活动图提出了一种新的深度感知定性空间表示方法,通过这种方法可以获得相似功能的物体组。实验证明,该方法即使在杂乱无章的场景中也能学习到高度 V-measure 的对象功能群簇,并且能够有效地处理对象遮挡,并且不强制施加任何对象或场景约束。
Mar, 2023
该论文通过在一个在线,不断变化的环境中扩展少样本学习的框架,介绍了一种上下文依赖的新颖学习数据集和一种新的上下文典型记忆模型,旨在缩小人类和机器学习环境之间的差距。
Jul, 2020