自我监督的真实到虚拟场景生成
Meta-Sim 是一种生成模型,它使用概率场景语法的场景图来渲染图像并生成相应的真实标签,通过神经网络训练来缩小生成数据输出和目标数据之间的分布差距,以优化下游任务的性能以实现自动数据合成。
Apr, 2019
通过三种不同的生成式人工智能方法应用驾驶模拟器中的语义标签图作为创建真实数据集的桥梁,本文比较分析了这些方法的图像质量和感知能力,产生了包括驾驶图像和自动生成的高质量注释的新合成数据集,证明了扩散式方法可以提供改进的稳定性和解决 Sim2Real 挑战的替代方法。
Apr, 2024
合成数据用于训练深度神经网络在计算机视觉应用中的重要性,重点探讨了在生产环境中使用的合成数据生成过程以及通过不同组合方法在减少仿真与现实差距方面的改进。
Nov, 2023
通过混合模拟器和现实世界的数据,SimGen 模型能够学习生成具有多样性的驾驶场景,通过新颖的级联扩散管道解决了模拟到真实世界之间的差距和多条件冲突,并在保持可控性的基础上,获得卓越的生成质量和多样性。
Jun, 2024
通过元学习和强化学习技术,Meta-Sim2 可以在没有监督的情况下学习到生成数据的离散结构统计,包括对象的频率,并且使用所生成的数据训练物体探测器的性能明显优于基线模拟方法。
Aug, 2020
本文研究场景理解问题,通过使用计算机图形学生成合成 3D 场景,以解决手动收集大量数据问题,从而避免了收集数据的麻烦和昂贵成本。通过使用深度数据作为输入仅使用 RGB-D 系统的深度数据,我们在 NYUv2 数据集上的表现相当于最先进的 RGBD 系统,并在 SUN RGB-D 数据集上设置了基准。文章还探讨了生成合成图像或视频数据,以及分析影响性能增益的不同因素。
Nov, 2015
该研究的目的是通过将生成模型的虚拟数据迭代地逼近真实世界的数据分布,提高计算机视觉系统训练的泛化性能,该方法通过对生成图形模型的参数先验分布进行后验密度估计,结合生成对抗训练,提高了交通场景语义标注任务的性能。
Jan, 2017
本论文介绍了一种使用 3D 渲染和域随机化技术生成合成数据的方法,探究了深度学习和领域适应的相关理论和新发现,并利用模拟到现实的适应性作为下行任务,证明了合成数据预训练也有助于提高实际测试结果。最后,作者们发展了一个新的大规模合成到实际(S2RDA)图像分类基准,提供了更具挑战性的从模拟到现实的转移。
Mar, 2023