对抗网络调整的场景生成
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
本文提出了一种新的基于 SG-GAN 的虚拟到现实领域自适应方法,可以有效地保留关键语义信息以实现更好的识别。实验证明,与现有 GAN 相比,SG-GAN 在场景自适应方面具有更好的性能,使用 SG-GAN 适应的虚拟图像在语义分割上比原始虚拟数据明显提高。
Jan, 2018
本研究提出了一种名为深度生成对齐网络(DGCAN)的深度生成模型,采用新颖的模型域对齐算法通过形状保持损失和低层次统计匹配损失来最小化合成图像和真实图像之间的深度特征空间差异,实验表明,将这些新生成的数据用于训练现成的分类器可以显著提高性能。
Jan, 2017
提出一种利用半监督方法,在图像的着色和反照率层上操作,训练半监督网络用于图片合成,该方法可以有效提高 OpenGL 渲染等低质量合成图像的视觉逼真度。该方法通过两个阶段的管道来实现,即首先以物理学渲染为目标以有监督的方式预测准确的着色,然后再采用改进的 CycleGAN 网络进一步提高纹理和着色的逼真度。 在 SUNCG 室内场景数据集上进行的广泛评估表明,与其他最先进的方法相比,我们的方法可以产生更逼真的图像。此外,我们所生成的 “真实” 图像训练出的网络比领域适应方法预测出更精确的深度和法线,这表明提高图像的视觉逼真度可以比强加任务特定的损失效果更良好。
Mar, 2020
本研究着眼于深入评估和比较对于机器学习的通用合成数据的对抗训练效果,并旨在使用未标记的真实数据条件下的合成 - 真实生成模型将合成图像转化为更真实的风格,并通过定性和定量指标进行广泛的性能评估和比较。
Apr, 2023
该研究提出了一种基于生成对抗网络(GANs)的新方法,以改进分割网络所学到的表示在合成和真实领域中的自适应,证明了其具有广泛性和可扩展性。
Nov, 2017
本研究提出一种自监督自动场景生成技术,可用于解决合成数据的生成成本高和领域差异等问题。该方法不需要真实世界数据集的监督,通过匹配真实数据的内容和特征,能够显著提高在多个数据集和真实数据集上场景图生成任务的表现。
Nov, 2020
该研究提出了一种基于语义的跨领域泛化基准(SemanticDG),并使用这个基准探索了在材料、视角等不同领域转移时的影响,通过提出一种上下文感知的视觉转换器,改进了现有领域泛化算法,实现了 18% 以上的性能提升,最终成功解决了领域泛化任务存在的挑战。
Jun, 2022
利用预训练扩散模型的一种新型学习方法,直接在对抗性的方式下对多视图渲染与扩散先验之间的分布差异进行建模,从而实现了高保真度和逼真度的三维内容生成,条件为单张图像和提示。通过利用生成对抗网络(GANs)的潜在空间和表达力丰富的扩散模型先验,我们的方法促进了各种三维应用,包括单视图重建、高多样性生成和开放域中的连续三维插值。实验结果表明,与以往的工作相比,我们的流程在生成质量和多样性方面表现出更强的优势。
Dec, 2023