对比学习中的在线目标表示
该论文提出了一个从多个视角捕捉的无标注视频演示中学习视觉表示的框架,优化了最近提出的自监督学习算法,应用对比学习来增强与任务相关的信息和抑制特征嵌入中的无关信息,验证了所提出的方法在模拟几种机器人任务,包括 pick and place 任务中的应用,评估了学习表示的三个指标:视点对齐,阶段分类和强化学习,在所有情况下,结果都表明与现有方法相比,该方法水平更高,而且训练轮数更少。
Jan, 2022
提出了一种自监督学习的方法,可以从多个视角拍摄的未标记视频中学习表征和机器人行为,能够用于机器人模仿人类的对象交互和身体姿势,训练该模型使用度量学习损失,使该模型能够发现在不同视角下发生变化但在时间域内不发生变化的属性,并可在强化学习算法中用作奖励函数。
Apr, 2017
通过引入全局、基于集合的对比损失和基于注意力的编码器,将个体目标表示相互对比更改为聚合表示并相互对比,从而在自监督学习中更有效地推动物体中心表示的出现,并在两个合成视频数据集上得到更好的效果。
Nov, 2020
我们提出了一种通过无监督 / 自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了 89.2% 的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了 15 倍,相比随机初始化。
Feb, 2024
本文探索运用物体感知表征学习技术进行机器人任务,自监督学习方法可降低实际世界中收集大量标记数据的成本,该研究展示物体感知表征学习技术在策略学习和物体定位预测方面显著提高了当前技术的效能和表现。
May, 2022
本文探讨了如何通过自主机器人与环境进行交互,获得适用于机器人操纵任务的有效物体中心表示,无需人为标注。基于对象持久性的表示学习方法能够随着机器人收集更多经验,不断改进表示,从而可以在无需人为干预的情况下扩展规模。我们的实验表明,这种自我监督方法显着优于直接从图像进行强化学习和先前的表示学习方法。
Nov, 2018
该篇论文提出了一种从未加工过的视频中学习图像表示的方法,该方法将来自现成物体检测器的监督损失和自我监督损失相结合,取得了在 19 个迁移学习任务中有竞争力的结果,其中包括 18/19 的少样本学习任务和 8/8 的数据集泛化任务。
Oct, 2020
本文研究了利用自监督学习获取对象集中表示的关键方面,并在 CLEVR 数据集上运行了一些实验来验证我们的见解。我们的结果表明,竞争式注意力对象发现对于学习对象集中表示非常重要。对于训练,我们证明了在潜在空间中应用具有匹配性的对比损失,避免了基于像素的重建。但是,该优化目标对假阴性(重复对象)和假阳性(匹配错误)非常敏感。因此,需要仔细考虑数据增强和负样本选择。
Mar, 2022
本研究提出了一种将自监督学习和多视角匹配技术相结合的方法,在没有额外标签的情况下,利用来自嵌入式相机的机器人吸尘器捕获的数据学习更高质量的表示,并证明了其在物体分类性能上的有效性。
Aug, 2022
本研究提出了一种新的学习框架,使用对比估计来同时优化可视化表达模型和动态模型,在随机扰动变形对象并收集了模拟数据后,离线学习这些对象的潜在动态模型,随后使用简单的模型规划来解决具有挑战性的变形对象操纵任务,实验结果表明其性能优于传统模型学习技术,并通过域随机化将其可视化操纵策略从模拟数据成功地迁移到现实中的 PR2 机器人中。
Mar, 2020