- 运动转换网络改变人类视频中的人格观察
本研究探究了通过运动和外观改变对短视频中的个性感知的影响,发现运动风格对外向特质有较强影响,而外观则有助于传达宜人性和神经质。
- SEEAvatar: 受限几何和外观的照片级文本到 3D 头像生成
使用大规模文本到图像生成模型,我们提出了 SEEAvatar,一种通过自进化约束生成具有真实感的 3D 头像的方法。通过对几何形状进行全局和局部部分的约束,并使用扩散模型和物理渲染管线生成逼真的纹理,我们的方法在全局和局部几何形状和外观质量 - NVFi:基于动态视频的三维物理学习的神经速度场
本文旨在从多视角视频中建模 3D 场景的动态。我们提出了一种新的方法,通过仅利用视频帧学习 3D 场景的几何、外观和物理速度,从而支持多种理想的应用,包括未来帧插值、无监督的 3D 语义场景分解和动态运动传递。
- 重建现实中的物体用于逼真的传感器模拟
从稀疏的野外数据中准确估计几何和逼真外观,并将其渲染到新颖视角中,以增加机器人训练和测试的现实感、多样性和规模的研究。
- 基于变量辐射场的真实世界分类重建
利用 Variable Radiance Field 框架,通过多尺度全局特征提取器参数化物体的几何和外观,学习类别模板并使用超网络生成小型神经辐射场,实现从单张图像高效、准确地重建特定类别物体。
- CVPRBlendFields:少样本基于实例的面部建模
使用传统计算机图形技术新方法,通过稀疏极端姿势混合并本地再现其表面细节,为不公开接触数据的研究团体提供一个可泛化应用的生成人脸可视化的方法。
- CVPR自监督神经骨骼形态和外貌模型
本论文提出了一种基于自监督学习的方法,仅仅通过一组彩色图像就能够学习到一个关节物体类的几何、外表和动作的表示,从而实现这些语义维度的独立控制,该方法不需要形态学的注释,相对于现有的采用 3D 直接监督的各种方法,使用本方法只需 2D 观测即 - CVPR运动模糊中物体的 3D 形状和运动估计
本文提出一种联合估计高度运动模糊物体的 3D 运动、3D 形状和外观的方法,并通过基于链式法则求导的逆渲染技术实现快速运动物体的去模糊和三维重建。
- ICCV视频对象分割全双工策略
研究使用双向消息传递的全双工网络 (FSNet) 来增强运动和外观之间的相互制约,通过关系型交叉注意力模块 (RCAM) 在融合和解码阶段利用跨模态特征,并在 RCAM 之后采用双向净化模块 (BPM) 来提高模型的鲁棒性。经过五个常用基准 - DeepFaceEditing: 利用分离的几何和外表控制实现人脸的深度生成和编辑
DeepFaceEditing 是一种针对面部图像的结构解缠框架,旨在支持面部生成和编辑,具有几何和外表的解缠控制能力。该方法采用了局部到全局的方法,将面部组件图像分解为几何和外貌表示,并使用全局融合模块进行一致融合,以提高生成质量,并利用 - 单目视角下的人类图像综合的风格和姿态控制
本文提出了一种新方法,称为 StylePoseGAN,用于合成具有姿势和部位外观显式控制的照片真实感的人类图像,并能够将其用于虚拟换装、动作模仿和新视角合成等应用中。
- 基于解缠表示的互信息最大化用于差分形态检测
本文提出了一种新颖的差分形态检测框架,利用特征点和外貌解耦,在差分形态检测性能方面提供了最先进的性能,其功能是通过在特征点,外貌和 ID 领域中的距离来实现的。
- ICCV图像合成的无监督鲁棒性潜在特征分离
通过学习一个新的方法,深度生成模型可以不需要姿态注释便可学习到表征物体外观和姿态等属性的独立潜在特征,这些特征是可以解释的,且能够生成和修改图像。
- AAAI学习可学习深层先验的空间混合模型用于知觉分组
本文提出了一种新的具有可学先验的空间混合模型来实现感知分组。 该方法将对象的属性划分为 “形状” 和 “外观”,并通过神经网络分别建模。 在感知分组数据集上进行的广泛实证测试表明,所提出的方法在大多数实验配置下优于现有的方法。
- 基于 LiDAR 强度的鲁棒地点识别的本地描述符
该论文提出了一种将 LiDAR 的几何信息与强有力的外观信息相结合的方法,通过建立新的描述符来在地点识别中优于现有办法,并且利用概率性关键点投票算法,在大规模的建筑和非结构化环境中实现有效的全局定位实验。
- 利用连通性:TrackletNet 多物体跟踪
本篇论文提出了一种创新而有效的追踪方法 TrackletNet Tracker (TNT),它将时间和外观信息结合在一起作为一个统一的框架来处理多目标追踪 (MOT) 的挑战,并相比其他最先进方法,在 MOT16 和 MOT17 基准数据集