DiffSF:场景流估计的扩散模型
基于扩散概率模型的新型不确定性感知场景流估计网络 (DifFlow3D) 提出,具有卓越性能,在 FlyingThings3D 和 KITTI 2015 数据集上分别降低了 6.7%和 19.1%的 EPE3D,且在 KITTI 数据集上实现了前所未有的毫米级准确度 (0.0089m 的 EPE3D)。扩散式精炼范式可作为即插即用模块集成到现有场景流网络中,显著提高其估计准确性。
Nov, 2023
本文展示了使用去噪扩散概率模型进行单目 depth 和 optical flow 估计,通过 Monte Carlo 推理,结合了自监督预训练和合成和真实数据的监督训练,能够在去噪和缺陷数据方面提供技术创新,以及对于不确定性和多模态的处理能力等方面都能取得最先进的效果。DDVM 是本文中提出的模型,相对深度误差为 0.074,比最佳发布方法的 Fl-all outlier rate 高 25%。
Jun, 2023
本文介绍了基于随机微分方程的扩散归一化流生成建模新方法 —— 扩散归一化流算法。该算法使用两个神经 SDE:一个前向 SDE 和一个后向 SDE,通过联合训练两个神经 SDE,将后向 SDE 收敛于一种扩散过程,从而具备更好的高维数据密度估计和图像生成性能。
Oct, 2021
建议了一个统一理论框架,将基于得分的扩散模型和生成对抗网络合并起来,提出了一个名为 “鉴别器去噪扩散流” 的新 SDE,通过调整不同得分项之间的相对权重,可以在 SDMs 和 GANs 之间实现平滑转换,同时保持边际分布不变,提供了新的算法,并具有在高样本质量和快速采样速度之间实现灵活权衡的潜力。
Jul, 2023
人物为中心的图像生成方法由于对常规预训练扩散进行微调导致训练不平衡,同时学习场景和人物生成会降低质量。本文提出了 Face-diffuser,一个协作生成管道,通过专门的预训练扩散模型和新颖的机制 (SNF) 消除训练不平衡并提高生成质量。
Nov, 2023
SceneDiffuser 是一个用于 3D 场景理解的条件生成模型,通过扩散过程,联合制定了场景感知生成、基于物理的优化和面向目标的规划模块,相对于之前的模型,具有内在的场景感知、基于物理的设计器和面向目标的设计等优点,在人体姿态和运动生成、灵巧握持生成、三维导航路径规划和机器人臂运动规划等任务上表现了极大的潜力。
Jan, 2023
通过使用导向梯度的扩散模型生成图像,我们提出了一种零样本技术 —— 运动导向,它允许用户指定复杂的运动场并精确编辑图像中对象的布局、位置、姿态和形状。通过同时从扩散模型中采样和引导样本以实现低导向损失,我们可以获得经过运动编辑的高质量图像。
Jan, 2024
本文提出了一种名为 “快速神经场景流”(FNSF)的方法,通过使用距离变换(DT)作为损失函数,使运行时间大大缩短,使其无需训练和偏见,从而实现了与当前最先进的学习方法相当的实时性能并成功在两个最大的自主驾驶(AV)激光雷达数据集 Waymo Open 和 Argoverse 上运行。
Apr, 2023
本文提出了一种使用单尺度全局匹配的方法,使用混合的本地 - 全局 - 交叉转换器架构分解了特征提取步骤,以精确稳健的特征表示的可靠特征相似性为关键,并在多个场景流估计基准测试中取得了最新的最先进的性能。
May, 2023
本文介绍了 Diffusion-EDFs,一种新颖的方法,将 SE (3)- 等变性(roto-translation equivariance)引入扩散生成模型中,展示出了卓越的数据效率,只需要 5 至 10 个任务演示进行有效的端到端训练,并且相比以前的基于扩散的操作方法,具有更好的泛化能力。
Sep, 2023