无纹理可变形表面重建与隐形标记
本论文提出了一种基于深度生成网络设计可视标记的新方法,该方法综合考虑了与标记制造和扫描相关的典型光度和几何变形,能够自动适应使用场景和所需容量,并能够将信息编码与艺术风格相结合。
Oct, 2016
本文提出了一种简单且实用的解决方案,在多视角重建中使用基于联合几何和光度约束的能量最小化,利用一个共置的摄像机 - 光线扫描仪设备来克服建立跨视觉对应的问题。我们的优化算法可以从随机初始化中稳健地全局最优地恢复形状和反射率。实验结果验证了我们方法的有效性并讨论了未来的可能扩展。
May, 2021
本论文提出了 Labels from UltraViolet (LUV) 框架,可在实际操作环境中使用透明紫外荧光漆和紫外线 LED 自动提取分割掩模和关键点,用于大规模的语义图像注释,并可用于机器人感知任务,可替代人类标注系统。
Mar, 2022
论文提出了一种基于数据驱动的方法,可以用于从单张图片中预测纹理缺失表面的三维重建结果,结果可以表示为网格、法线或深度图等形式,研究表明在文中所述情境下,网格并不适用于处理纹理缺失表面的三维重建。该方法可以很好地泛化到未见过的物体,并且更优于目前最先进的 SfS 技术。
Mar, 2018
基本模式是各种更或更少复杂的几何结构的来源,我们将利用这些模式开发新的高效视觉标记。所提出的标记除了是投影不变量外,还可以生成丰富的独特标识符,这在资源密集型导航和增强现实应用中非常重要。我们标记的螺旋拓扑结构允许准确的识别方案验证,其中使用了水平集方法。通过广泛的实验测试,验证了标记对于获取和几何失真的稳健性。
Apr, 2024
通过深度神经网络的迁移学习方法,本论文提出了一种高效的无标记跟踪方法,可以在不同的实验环境中跟踪动物不同的身体部位,尤其在少量训练数据的情况下也能获得很好的跟踪效果。
Apr, 2018
使用单个 RGB 图像提出一种新的框架,实现了 3D 手部形状重构和手 - 物体抓握优化,通过 UV 坐标映射的密集表示方法替代了以往稀疏点的接触区域近似,同时引入了推理时间优化来微调抓握,实现了更好的手部形状重构准确性和质感。在 Ho3D,FreiHAND 和 DexYCB 等数据集上进行的实验表明,我们的方法优于现有技术。
Nov, 2022
本文介绍了一种新型量化表面触觉传感器(称为 QS-TS),该传感器利用 ArUco 标记实时估计凝胶层的变形,能够安全和自主地使用机器人操纵器进行触觉操作和伺服精细物体。实验结果展示了 QS-TS 在估计凝胶层变形方面出色的性能,相对误差小于 5%。
Oct, 2023
我们提出了一种名为 Dense Inpainting Human Mesh Recovery (DIMR) 的两阶段方法,利用密集的对应关系图处理遮挡问题,采用基于注意力机制的特征完成模块,通过特征修补训练过程指导网络从非遮挡特征中学习,实验证明我们的方法在重度遮挡场景下表现优异,并在标准基准(3DPW)上取得可比较的结果。
Jul, 2023