RetinaGAN: 一种面向对象的模拟到真实转移方法
本论文提出了基于深度神经网络的强化学习在机器人抓取任务中的应用,以及利用生成模型进行图像仿真与真实环境之间的过渡。其中引入了 RL-scene 一致性损失用于图像翻译,可保证翻译操作是不变的,并在实现无监督领域转换的同时,训练出了 RL-CycleGAN 模型,该模型表现出了模拟到现实环境下最优的效果。
Jun, 2020
通过使用机器学习,该研究提出了一种能够通过观察图像数据和相关动作对来学习环境行为并进行建模的高质量神经模型,称为 DriveGAN,不需要监督信号训练控制模型,并在多个数据集上进行了训练和测试,表现优于之前的数据驱动模拟器,实现了对场景和非玩家对象的各个方面进行控制的新功能。
Apr, 2021
使用合成数据和领域自适应,可以将在真实世界中所需的样本数缩减至只使用随机生成的合成对象,并且可以使用无标签的真实世界数据和 GraspGAN 方法来获得类似于使用 939,777 个标记的真实世界样本所达到的真实世界抓取性能。
Sep, 2017
该研究利用领域随机化和对抗生成网络在模拟环境中训练工业电器零件的近实时目标检测器。结果显示,使用合成图像和 GAN 翻译的图像进行训练可以在检测和分类一组工业电器零件中达到超过 0.95 的平均精度。
May, 2018
SimGAN 是一种基于深度神经网络和传统物理学模拟的混合仿真器,通过对抗强化学习实现域自适应,以解决机器人控制程序跨不同领域的转化问题。在六个机器人运动任务中,它比多个强基线性能更好。
Jan, 2021
本文提出了一种新的基于 SG-GAN 的虚拟到现实领域自适应方法,可以有效地保留关键语义信息以实现更好的识别。实验证明,与现有 GAN 相比,SG-GAN 在场景自适应方面具有更好的性能,使用 SG-GAN 适应的虚拟图像在语义分割上比原始虚拟数据明显提高。
Jan, 2018
本文介绍了 GameGAN 这个生成模型,它通过学习代理与环境交互中的表现来模拟图形游戏环境,并通过内部环境地图和动静分离的方式实现更高的可解释性和更广泛的应用。
May, 2020
本文提出了一种基于对物体的关注的生成对抗网络,可用于复杂场景的文本到图像合成,该网络生成器长注重于文本描述中最相关的单词和预生成的语义布局,以合成显著物体,同时提出了一种快速区域卷积神经网络(Fast R-CNN)的新技术,以提供丰富的针对对象的区分信号,判断生成的物体与文本描述和预生成布局是否匹配。该提出的 Obj-GAN 在大规模 COCO 基准测试中表现出色,提高了 27%的 Inception 分数并降低了 11%的 FID 分数。通过分析它们的机制和可视化他们的注意层,提供了传统网格注意和新型对象驱动注意之间的全面比较,展示了本模型如何高质量地生成复杂场景的见解。
Feb, 2019
本文提出了一种基于模拟器优势信息和生成对抗网络的新型无监督领域自适应算法 SPIGAN,用于在真实场景下对图像语义分割任务进行训练,结果表明我们的方法优于现有的无监督域适应技术。
Oct, 2018