Y-GAN: 多摄像头立体图像深度估计的生成对抗网络
本文提出了一种基于对抗学习框架的无监督深度学习方法,用于预测深度图,通过学习预测校准立体相机设置下两个图像视图之间的对应场,提出了一个有两个生成子网络的架构,它们通过对抗训练共同用于重建视差图并相互约束和监督。实验结果表明,该模型可以有效地解决深度估计任务。
Jul, 2018
本文提出了一种基于生成对抗网络的无监督学习框架,从未标记的RGB图像序列中预测场景的6自由度姿态相机运动和单目深度图,并在KITTI和Cityscapes数据集上给出了详细的定量和定性评估,结果表明该方法优于现有传统和无监督深度VO方法,提供更好的姿态估计和深度恢复结果。
Sep, 2018
本篇论文探讨了使用DepthwiseGAN架构生成逼真图像的方法,并通过Fréchet Inception Distance对生成数据质量进行了评估。结果表明,DepthwiseGAN可以在较短的训练期间内生成逼真的图像,但是模型容量对于生成建模仍然具有重要作用。
Mar, 2019
该研究提出了一种新的无监督网络系统用于视觉深度和自我运动估计:堆叠生成对抗网络(SGANVO)。该系统由一堆GAN层组成,其中最底层估计深度和自我运动,而更高的层估计空间特征,并且由于在层之间使用了循环表示,可以捕捉时间动态。该方法在KITTI数据集上获得了更好或可比较的深度和自我运动估计结果。
Jun, 2019
本文提出了一种基于多帧GAN的图像序列增强方法,并通过实验验证了其在低光条件下用于立体视觉里程计的潜力。该方法不需要昂贵的成对数据集,通过可逆对抗网络的优秀性能,将亮度较高的场景中的有益特征传输到低照度序列中,并通过引入一个基于光流估计的时间和立体一致性的新型损失函数,保留了翻译序列的连贯几何线索。实验表明,该增强序列在具有挑战性的光照条件下,提高了最先进的基于特征和基于直接立体视觉里程计方法的性能,并且相比其他最先进的图像增强和风格转移方法,MFGAN在视觉里程计方面表现出明显优势。
Oct, 2019
本研究探讨了将对抗性训练应用于单目深度估计任务中的益处,并扩展了自监督网络以成为生成对抗网络(GAN)来实现全局一致性。通过对不同像素级重构损失结合Vanilla GAN, LSGAN和Wasserstein GAN等进行广泛的实验评估,得出当重构损失不太受限制时,对抗训练是有益的结论,并证明在使用批量归一化时,无需使用GAN的非对抗性训练法表现优异。因此,我们采用批量规范化和不同的输出比例,获得了最新的单目深度估计结果。
Oct, 2019
本文研究生成对抗网络(GANs)中的潜在空间与三维对象的关系,探讨了几种GAN的变体和训练方法,旨在提高3D GAN的训练效果,同时提出了未来研究的方向。
Apr, 2023
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023