具有 PSF 感知机制的极简和高质量全景成像的转换器
利用变形补丁嵌入(DPE)和变形 MLP(DMLP),并结合传输学习方法,将针孔相机图像的语义注释和 360 度环视视觉的语义注释结合起来,从而实现全景图像的稳健分割,并通过互补原型自适应实现无监督域自适应。在 Stanford2D3D 数据集中,与完全受监督的现有技术相比,我们的 Trans4PASS 与 MPA 保持可比的性能,而无需超过 1,400 个标记化全景图像。在室外 DensePASS 数据集中,我们打破了现有技术水平,使 mIoU 提高了 14.39%,将新标准设定为 56.38%。
Mar, 2022
通过使用开放性全景分割任务,以及采用可变形适配器网络和随机全景等距投影数据增强方法,我们提出的 OOOPS 模型在三个全景数据集上均取得了令人瞩目的性能提升,特别是在野外环境 WildPASS 上达到了 + 2.2%,在室内环境 Stanford2D3D 上达到了 + 2.4%的平均交并比(mIoU)
Jul, 2024
该论文介绍了一种针对卫星传感器的低分辨率 RGB 图像和高分辨率全色图像的 Planar 神经辐射场(psPRF),通过采用显式的光谱到空间卷积(SSConv)来增强多模态表示能力,并采用投影损失来支持 psPRF 的泛化能力,该方法在多场景的 WorldView-3 数据集上取得了最先进的性能。
Jun, 2024
在高速运动和低照明条件下的场景重建是许多应用(如增强和虚拟现实、无人机导航和自主机器人)中的重要问题。本文介绍了一种能够从高速图像序列(如由单光子相机捕获的序列)中估计极端场景运动的方法,在低光或高动态范围等具有挑战性的条件下表现出色。
Sep, 2023
使用卷积神经网络直接从两到三个相位多样性光学图像中预测泽尼克系数,对光学像差进行表征,以实现快速准确的相位多样性方法,为真实数据集的评估铺平了道路。
Apr, 2024
使用一种称为 PanoDiff 的新型方法,通过使用一个或多个未注册的 Narrow Field-of-View (NFoV) 图像,高效地生成完整的 360° 全景图,该方法通过两个主要组件来克服以往方法中的局限性,包括两阶段的角度预测模块和一种基于潜在扩散的全景生成模型,实验表明 PanoDiff 实现了最先进的全景生成质量和高可控性,适用于内容编辑等应用。
Aug, 2023
本文提出了一种名为 Panoramic Vision Transformer(PAVER)的新框架,能够使用 Vision Transformer 结合可变形卷积从 360 度视频的局部特征中学习视觉显著性,从而在 Wild360 基准测试上显著优于其他先进模型,无需监督或辅助信息。
Sep, 2022
点扩散函数(PSF)工程是一种井然有序的计算成像技术,它利用相位掩模和其他光学元件将额外的信息(如深度)嵌入常规 CMOS 图像传感器捕获的图像中。本文通过理论界限(Cramér Rao 界限)建立了使用 PSF 工程事件相机进行三维点定位和跟踪的方法。利用这些界限,首先证明了现有的 Fisher 相位掩模在定位静态闪烁点源(如闪烁荧光分子)时已经接近最优。然后证明了现有设计在跟踪移动点源方面是次优的,并利用我们的理论为此任务设计了最优相位掩模和二值振幅掩模。为了克服设计问题的非凸性,我们利用基于新颖的隐式神经表示的参数化方法对相位和振幅掩模进行了描述。通过大量的仿真实验证明了我们设计的有效性。我们还用一个简单的原型进行了验证。
Jun, 2024
本文提出了一种全景图像 - 图像转换的畸变感知模型,采用球形位置编码器和无畸变鉴别器,利用变形感知编码器和样式编码器处理全景图像和针孔图像的大领域差异,并且将全景图像的重构阶段与转换阶段分开学习,取得了不错的效果。
Apr, 2023
本研究提出了一种基于 Transformer 的跨模态融合架构,用于弥合多模态融合与全景场景感知之间的差距,并使用失真感知模块来处理极端对象变形和全景失真,通过跨模态交互实现特征矫正和信息交换,最终将特征合并以传达双模态和三模态特征流的长程上下文,通过在三个室内全景数据集中四种不同模态类型的组合进行彻底测试,我们的技术在 Stanford2D3DS(RGB-HHA)上达到了 60.60% 的 mIoU 性能,Structured3D(RGB-D-N)上达到了 71.97% 的 mIoU 性能,Matterport3D(RGB-D)上达到了 35.92% 的 mIoU 性能。
Aug, 2023