AutoInt: 快速神经体渲染的自动集成
本研究提出了一种表示学习函数的解析积分的方法,可用于精确计算神经网络的积分并应用于约束神经网络的参数化,同时引入了一种约束函数为正的方法,并介绍了固定积分神经网络(FINN)的多种应用。
Jul, 2023
本研究提出了将本应在神经网络评估后再进行渲染的颜色,改为直接渲染出射线查询的特征向量,从而大幅降低了神经网络评估的复杂度和计算开销,并取得了较好的渲染质量。
May, 2023
本文介绍了一种基于 Stein 运算符的神经网络架构和 Laplace 近似的贝叶斯斯坦网络方法,以实现数值积分中的贝叶斯概率数值方法,相较于高成本的高斯过程模型,该方法在流体力学中的应用中表现了数倍的性能提高。
May, 2023
本文提出了一种使用直接映射从相机光线到沿着光线最有可能影响像素最终外观的位置的方法,从而实现比标准方法快一个数量级的体积渲染神经网络模型的渲染、训练和微调,同时避免了在多个点上查询体积网络以呈现图像的过程时间缓慢的问题。与现有的方法不同的是,我们的方法适用于一般的体积,并且可以进行端到端的训练。
Nov, 2021
采用高容量神经场景表示和周期激活联合优化场景的隐式表面和辐射场的神经渲染管道,加速了现有技术水平的神经体积渲染,实现了与传统图形管道兼容的隐式表面表示,并实现了与其他表面方法相比具有前所未有的图像质量。
Mar, 2021
本文是对神经渲染发展趋势和应用的一篇最新综述,该技术结合了计算机图形学和深度生成模型,以生成可控、逼真的输出,包括新视图综合、语义照片操纵、人脸和身体再现、重新照明、自由视角视频以及用于虚拟和增强现实遥感的逼真头像的创建等方面。我们还讨论了这种技术的社会影响和未来研究方向。
Apr, 2020
通过学习,我们提出了一种表示动态物体的方法,该方法由编码器 - 解码器网络和可微分的射线行进操作组成,它不需要明确重建或跟踪物体,使用了 3D 体积表示法,表现出更好的图像质量,为高分辨率应用提供了一种从表面到体积的方法
Jun, 2019
该论文旨在提高神经体积渲染中几何表示和重建的质量,通过将体积密度定义为拉普拉斯累积分布函数作为有符号距离函数的表示,实现了形状和外观的有效无监督解缠,并在具有多视图的数据集中获得了高质量的几何重建结果。
Jun, 2021