多视角生成对抗网络
提出了一种名为 VariGANs 的新的图像生成模型,采用变分推断和生成对抗网络的结合,通过粗到细的方式生成多视角衣物图像,比现有方法生成的图像更富有一致性的全局外观以及更丰富和更锐利的细节。
Apr, 2017
本研究提出一种新颖的生成对抗网络框架,即 MEGAN,用于多视角网络嵌入,通过保留多视角网络的信息并考虑它们之间的相关性,通过节点分类、链接预测和可视化任务的实验表明,该方法的表现优于现有的方法。
Aug, 2019
提出了一种基于多视角一致性生成对抗网络(MVCGAN)的高质量 3D 感知图像综合方法,采用几何约束技术,利用深度和相机变换矩阵等信息实现多视角联合优化,同时采用两阶段训练策略和混合训练技术提高模型的生成图像质量,实验结果表明,本方法达到了最先进的性能水平。
Apr, 2022
本研究提出 GP-MVC 模型,通过生成缺失视图的数据来解决不完整的多视角聚类问题,使用多视角编码器网络和生成对抗网络学习共享表示和生成缺失数据,并利用加权自适应融合方案来利用不同视图的互补信息。通过实验证明,该方法在四个基准数据集上优于现有的多视图聚类方法。
Mar, 2020
本文提出了一种基于生成对抗网络(GAN)和去噪自动编码器(DAE)的视图插补方法,该方法能够有效地解决多视图数据分析中的缺失视图问题,并可用于生命科学领域的遗传研究。
Aug, 2017
提出了一种基于无监督多视图生成模型的条件变体,可在高维空间中生成各种物体的逼真样本,相比于其他条件生成方法,我们不会对变差因素做任何假设,不需要视图的监督。
Nov, 2017
本文提出了一种基于共享生成潜在表征的多视角聚类方法,通过深度生成学习从视角中提取非线性特征并捕捉视角之间的相关性以达到更好的聚类性能,并在多个不同规模的数据集上得到了优于现有方法的实验结果。
Jul, 2019
本研究提出一种名为 MVGIB 的多视角变分图信息瓶颈原则用于跨视角融合图信息,并使用相互信息约束公式化其共享信息和视角特定信息。经过广泛的图形基准数据集实验表明了所提出方法的卓越效果。
Oct, 2022
当前针对人头的 3D GAN 反演方法通常只使用一个正面图像来重建整个 3D 头部模型,从而忽略了多视角数据或动态视频时的有意义信息。本研究基于现有先进的 3D GAN 反演技术,允许一致且同时地反演同一主体的多个视角。我们采用多潜变量扩展来处理动态人脸视频中的不一致性,从而从序列中重新合成一致的 3D 表示。由于我们的方法使用了有关目标主体的额外信息,我们观察到在几何精度和图像质量方面显著提高,尤其是在宽视角下的渲染。此外,我们展示了反演 3D 渲染的可编辑性,这使它们与基于 NeRF 的场景重建有所区别。
Dec, 2023