CityGen:无限可控的 3D 城市布局生成
本文提出了一种名为 InfiniCity 的新颖框架,该框架利用 2D 和 3D 数据分为三个可行的模块,可以构建和渲染出具有任意规模和可穿行性的 3D 城市环境,并允许用户进行灵活交互式编辑。
Jan, 2023
CityCraft 是一种创新框架,结合了三个关键阶段来增强城市场景的多样性和质量,它包括使用扩散变压器模型生成 2D 城市布局,利用大型语言模型根据用户提示和语言指南制定土地利用规划,以及通过资产检索模块和 Blender 进行精确的资产放置和场景构建。CityCraft 在生成逼真的 3D 城市方面取得了最先进的性能。
Jun, 2024
提出了 CityDreamer,一种针对无限制 3D 城市的组合生成模型,通过将建筑实例的生成与其他背景对象(如道路、绿地和水域)分离为不同模块来解决生成 3D 城市时面临的挑战,并构建了 OSM 和 GoogleEarth 两个数据集以增强所生成的 3D 城市的布局和外观的真实性,通过广泛的实验证明了 CityDreamer 在生成各种逼真的 3D 城市方面的优越性。
Sep, 2023
通过引入一种组合式 3D 布局表示方法到文本转 3D 范式中的本文,克服了在大规模城市范围内扩展这一方法的局限性,并且成功地将文本转 3D 技术应用于覆盖超过 1000m 行驶距离的大尺度城市场景,同时展示了可调控城市场景生成的强大能力。
Apr, 2024
高效合成无边界 3D 城市的 GaussianCity 系统,采用 3D 城市生成的 NeRF 和 3D-Gauusian Splatting 方法,通过引入 BEV-Point 作为紧凑的中间表示和空间感知的 BEV-Point 解码器,实现了优于 CityDreamer 的最先进的无人机视角和街景视角下的 3D 城市生成性能提升 60 倍(10.72 FPS 对 0.18 FPS)。
Jun, 2024
利用图注意力网络的自动建筑布局生成方法,支持任意道路网络,生成逼真的城市布局,并基于学习先验条件生成,相较先前的布局生成网络表现出卓越性能,为 28 个大城市生成不同建筑形状的布局。
Jul, 2023
提出一种基于变分生成模型和场景图条件的端到端场景布局合成方法,并使用可微分渲染模块优化生成的布局。实验表明,该模型可以更精确和多样地进行条件场景合成,并允许从各种输入形式生成样本化场景。
Jul, 2020
这篇论文提出了一种集成计算机视觉和生成式人工智能(genAI)的新方法,通过先进的图像分割和扩散模型的协同作用,实现了城市设计的全面方法。我们的研究方法涵盖了详细图像分割的 OneFormer 模型和通过 ControlNet 实现的文本描述生成图像的稳定扩散 XL(SDXL)扩散模型。早期测试表明,UrbanGenAI 不仅提升了城市景观重建的技术前沿,也在设计教学和社区参与的城市规划方面提供了显著的益处。UrbanGenAI 的持续发展旨在对其在更广泛的背景下的有效性进行进一步验证,并集成实时反馈机制和三维建模能力等附加功能。
Jan, 2024
从场景图生成逼真合理的三维场景,利用大型语言模型显式汇总全局图特征和局部关系特征,通过统一的图卷积网络从更新的场景图中提取图特征,并引入基于 IoU 的正则化损失来约束预测的三维布局。在 SG-FRONT 数据集上进行基准测试,我们的方法在场景级准确性方面取得了更好的三维场景合成效果。发表后将发布源代码。
Mar, 2024
通过新型神经网络 Urban-StyleGAN,使用分组策略和无监督潜在空间探索算法,实现了更好的城市场景生成和内容控制。
May, 2023