ICCVAug, 2023

增强 NeRF 类似于增强 LLMs:具有混合视图专家的通用 NeRF Transformer

TL;DR使用大规模语言模型中的 Mixture-of-Experts (MoE) 方法来增强一种称为 GNT 的 NeRF 模型,建立了一种能够合成未见场景新视角的跨场景可泛化的 NeRF 模型,称为 GNT with Mixture-of-View-Experts (GNT-MOVE)。实验表明,该模型在迁移到未见场景时展现出卓越的泛化能力,在零样本和少样本的设置中都取得了最新的结果。