ICCVAug, 2023
增强 NeRF 类似于增强 LLMs:具有混合视图专家的通用 NeRF Transformer
Enhancing NeRF akin to Enhancing LLMs: Generalizable NeRF Transformer with Mixture-of-View-Experts
Wenyan Cong, Hanxue Liang, Peihao Wang, Zhiwen Fan, Tianlong Chen...
TL;DR使用大规模语言模型中的 Mixture-of-Experts (MoE) 方法来增强一种称为 GNT 的 NeRF 模型,建立了一种能够合成未见场景新视角的跨场景可泛化的 NeRF 模型,称为 GNT with Mixture-of-View-Experts (GNT-MOVE)。实验表明,该模型在迁移到未见场景时展现出卓越的泛化能力,在零样本和少样本的设置中都取得了最新的结果。