DepGAN:利用深度图处理图像合成中的遮挡和透明性
本文提出 Composition-by-Decomposition 网络,采用两个独立分布的物体生成具有真实纹理和形状的合成图像,以此捕捉多物体之间的空间相互作用关系,从而在生成场景方面获得更好的效果。
Jul, 2018
该论文提出了一种基于卷积神经网络的方法,通过预测包含被前景遮挡区域信息的分层深度图像和前景分离掩模来合成场景和填补遮挡的空白,用于虚拟现实和减弱现实领域的单幅图像的新视点合成。
Jul, 2018
本文提出了一种基于对抗学习框架的无监督深度学习方法,用于预测深度图,通过学习预测校准立体相机设置下两个图像视图之间的对应场,提出了一个有两个生成子网络的架构,它们通过对抗训练共同用于重建视差图并相互约束和监督。实验结果表明,该模型可以有效地解决深度估计任务。
Jul, 2018
通过对经典图形渲染管道的启发,我们提出了视觉对象网络(VON)——一种生成对象自然图像的新型生成模型,它生成具有解缠的3D表示的对象自然图像,让图像不仅具备比最先进的2D图像合成方法更加逼真的外观,还能进行各种3D操作。
Dec, 2018
本研究旨在探讨利用生成对抗网络进行三维场景填充的潜力与效率,并通过几个数据集的实验验证了这种模型优于传统三维卷积神经网络在一定程度具有对齐的数据集内。
May, 2019
本研究探讨了将对抗性训练应用于单目深度估计任务中的益处,并扩展了自监督网络以成为生成对抗网络(GAN)来实现全局一致性。通过对不同像素级重构损失结合Vanilla GAN, LSGAN和Wasserstein GAN等进行广泛的实验评估,得出当重构损失不太受限制时,对抗训练是有益的结论,并证明在使用批量归一化时,无需使用GAN的非对抗性训练法表现优异。因此,我们采用批量规范化和不同的输出比例,获得了最新的单目深度估计结果。
Oct, 2019
本篇论文提出了一种通过考虑前景目标在合成图像中所投射的潜在阴影的方法,采用 Adversarial Image Composition Net (AIC-Net) 生成阴影和前景样式的转移,利用可微分的空间变换模块实现对局部和全局的协同优化,从而实现了高逼真度的图像合成。
Sep, 2020
本文引入了孔径渲染生成对抗网络(AR-GANs),使用焦点提示学习深度及深度场效应,并且通过深度场混合学习减少了无监督学习的歧义,实现了多样化的图像生成。
Jun, 2021
本研究提出了一种扩展神经体素渲染至高分辨率2D图像的技术,使得生成对抗网络(GAN)能够以前所未有的细节分辨率合成高分辨率的三维几何物体,并且在维持图像质量的同时保持严格的视角一致性,从而树立了无监督学习3D GAN中的三维形状的新标准。
Jan, 2024