- 高效的超列关联语义匹配
利用多尺度相关图的潜力,提出了一种高效的语义匹配方法 HCCNet,通过特征分割和点卷积等操作,实现了在语义匹配上具有先进水平或有竞争力的性能,同时降低了延迟和计算开销。
- SparseDFF:一次性灵巧操作的稀疏视图特征蒸馏
通过开发 Distilled Feature Field(DFF)作为 3D 场景表示,我们引入 SparseDFF 方法,从稀疏的 RGBD 观测中获取视角一致的 3D DFFs,实现一次性学习可转移到新场景的灵巧操作,同时展示了面对物体 - ICCVSimNP:学习神经点之间的自相似先验
利用类别层次的自相似性连接神经点辐射场和神经点,通过学习四维对象重建方法,SimNP 能在提供语义对应的同时重建无法观测到的对称未见的对象区域,优于以往的方法。
- 使用稳定扩散进行无监督语义对应
本论文提出了一种新的利用语义知识的图像生成方法,通过优化模型中的提示值,可以实现在多张图片中寻找相同语义意义的位置,可以在多个数据集上达到最先进的性能。
- RFR-WWANet: 基于加权窗口注意力的恢复特征分辨率网络用于无监督图像配准
提出了一种名为 RFR-WWANet 的无监督可形变图像配准模型,使用了 RFRNet 和 WWA 设计以优化 Swin transformer,实现更精细的空间信息建模和语义关联,取得了明显的性能优势。
- CVPR基于参考的非真实感辐射场用于可控的场景风格化
该研究使用基于参考图像的非真实辐射场方法对 3D 场景进行样式化处理,该方法利用 2D 参考图像来获取伪光线监督并填充遮挡区域,使其能够产生非真实感的连续新视图序列。
- ICCV多尺度匹配网络用于语义对应
本文提出了一种多尺度匹配网络,该网络可以对邻近像素之间微小的语义差异进行敏感的多尺度匹配,并利用深度卷积神经网络的多尺度结构学习判别像素级特征。实验结果表明,该方法在三个流行的基准测试上具有高计算效率并达到了最先进的性能。
- AAAI基于动态图卷积和语义对应学习的面部表情动作单元强度估计
本论文提出了一种新的学习框架,通过建立特征映射之间的语义对应关系自动学习 AU 之间的潜在联系,从而实现面部动作单元的强度估计,其中语义对应卷积模块(SCC 模块)可以提高特征的可辨识性,并且在两个基准数据集上展现了显著的性能优越性。
- 句子指定的动态视频缩略图生成
本论文提出了一种新型的任务:句子指定的动态视频缩略图生成,使用了基于句子和视频的语义交互和内部视频关系的科技,提出了图卷积视频缩略图指针,可以以时间条件为基础,生成句子指定的视频缩略图。与此同时,他们也提供了一个新的数据集以支持这个新的任务 - CVPR多图像基于一致特征挖掘的语义匹配
本研究提出了一种多图像匹配方法以估计多个图像之间的语义对应关系,并且利用稀疏可靠特征匹配而非优化所有成对对应关系,同时还提出低秩约束来确保整个图像集上的特征一致性。该方法在多图匹配和语义流基准测试中表现优异,同时在不使用任何注释的情况下对重 - ICCVSCNet:学习语义对应性
本文提出了 SCNet,一种基于卷积神经网络的语义对应的几何合理模型,利用区域提议实现匹配原语,并明确将几何一致性纳入其损失函数中,该方法在多项基准测试中均表现优异。