研究利用未标记的现实数据学习仿真器输出的模型的真实性以改进合成图像以缩小合成和真实图像之间的差距,提出了一种使用合成图像作为输入的对抗网络方法,通过几个关键修改以保护注释信息、避免伪影、稳定训练的方式来学习 Simulated+Unsupervised(S+U)学习,用于眼睛凝视和手部姿势估计的模型表现得到了大幅提升。
Dec, 2016
SimGAN 是一种基于深度神经网络和传统物理学模拟的混合仿真器,通过对抗强化学习实现域自适应,以解决机器人控制程序跨不同领域的转化问题。在六个机器人运动任务中,它比多个强基线性能更好。
Jan, 2021
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
通过提出代理标签方法,使用多重对抗训练产生高质量标签,使得深度模型能够在目标域上进行带监督的训练,以解决语义分割过程中像素级别标注数量巨大,使其难以扩展。
Jul, 2019
通过使用图形引擎和敌对训练,我们设计了一个无监督的生成模型,可以通过输出与真实数据不可区分的渲染图像来提高图像生成的效果。
Apr, 2018
该研究提出了一种基于生成对抗网络(GANs)的新方法,以改进分割网络所学到的表示在合成和真实领域中的自适应,证明了其具有广泛性和可扩展性。
Nov, 2017
该研究的目的是通过将生成模型的虚拟数据迭代地逼近真实世界的数据分布,提高计算机视觉系统训练的泛化性能,该方法通过对生成图形模型的参数先验分布进行后验密度估计,结合生成对抗训练,提高了交通场景语义标注任务的性能。
Jan, 2017
本文提出了一种新的基于 SG-GAN 的虚拟到现实领域自适应方法,可以有效地保留关键语义信息以实现更好的识别。实验证明,与现有 GAN 相比,SG-GAN 在场景自适应方面具有更好的性能,使用 SG-GAN 适应的虚拟图像在语义分割上比原始虚拟数据明显提高。
Jan, 2018
通过重新设计辨别器作为语义分割网络,直接使用给定的语义标签映射作为训练的地面实况,通过提供更强的监督和对空间和语义感知的辨别器反馈以及通过向生成器注入 3D 噪声张量进行全局和局部采样,我们能够合成更高保真度的图像,并实现高质量的多模态图像合成。
Dec, 2020
通过三种不同的生成式人工智能方法应用驾驶模拟器中的语义标签图作为创建真实数据集的桥梁,本文比较分析了这些方法的图像质量和感知能力,产生了包括驾驶图像和自动生成的高质量注释的新合成数据集,证明了扩散式方法可以提供改进的稳定性和解决 Sim2Real 挑战的替代方法。
Apr, 2024