从一张图像中深度估计遮挡
本文提出了一种 Attention Loss 函数结合多任务深度对象遮挡边界检测网络,并采用编码器 - 解码器结构,通过共享卷积特征来同时预测对象边界和遮挡方向,大幅度提高了 PIOD 数据集和 BSDS 拥有数据集上的检测速度(每图像 0.037s)并显著超过了之前的最优结果(ODS F 分数分别为 0.702 和 0.555)。
Jun, 2018
本文提出了一种基于深度学习的对象共分割方法,使用 CNN-based Siamese 编码器 - 解码器体系结构,利用相互关联的特征提取和掩码生成技术来较好地完成同类别对象的提取,实验结果表明,与其他算法相比,该方法具有更好的共分割效果。
Apr, 2018
使用卷积神经网络中的 PWOC-3D 架构来解决场景流问题,该架构使用专门的设计决策来处理大运动和遮挡等挑战,并提出了一种自监督策略来预测图像中的遮挡,从而在 KITTI 基准测试和具有挑战性的 FlyingThings3D 数据集上实现了具有竞争力的结果。
Apr, 2019
本文提出了一种名为 OPNet 的新架构,通过利用共享高层特征中的丰富遮挡线索和任务特定低层特征中的结构空间信息来解决现有工作中存在的两个关键问题,即缺乏可以利用两个子任务之间有限的耦合的解码器架构,以及不适当的遮挡方向表示。
Aug, 2021
本文提出了一个新颖的框架,利用基于扩散的 2D 修复模型,通过填补物体隐藏部分的 2D 图像来重建完整的表面,以及通过神经隐式表面表示优化每个实例的 3D 重建。实验结果表明,我们的方法在从 RGB-D 视频中进行物体级重建时达到了最先进的准确性和完整性。
Aug, 2023
该论文提出了一种基于卷积神经网络的方法,通过预测包含被前景遮挡区域信息的分层深度图像和前景分离掩模来合成场景和填补遮挡的空白,用于虚拟现实和减弱现实领域的单幅图像的新视点合成。
Jul, 2018
本研究提出了一种采用深度神经网络进行多对象实例分割的方法,该方法能够通过 bounding box 监督训练,具有鲁棒性并能处理复杂场景中的遮挡问题,从而提高图像分类精度。
Dec, 2020
本研究中,我们利用深度卷积神经网络架构在 2D 图像和 3D 空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
本文提出了一种名为 Convolutional Oriented Boundaries (COB) 的方法,该方法通过图像分类卷积神经网络(CNNs)产生多尺度的定向轮廓和区域层次结构,其具有高效的计算性能和显著的识别性能,并且泛化性能也很好。我们在多个数据集上验证了 COB 的性能,并通过与不同任务的结合,如目标提议,语义轮廓,语义分割和目标检测等,证明 COB 在提高多种任务的性能方面也具有良好的效果。
Jan, 2017
该论文通过学习预测 2D 位移场,以重采样像素来改进目前单 ocular 深度估计方法中存在的导致 <?occlusion?> 边界平滑、定位精度差的问题,从而提高了物体识别和场景重建的精度。
Feb, 2020