- CVPRCSTA:基于卷积神经网络的时空注意力视频摘要
提出了一种基于 CNN 的时空注意力(CSTA)方法,将视频的每个帧的特征堆叠起来形成类似图像的帧表示,并应用 2D CNN 对这些帧特征进行处理,实现对关键属性的学习和视觉重要性的捕捉,在 SumMe 和 TVSum 等数据集上实验证明了 - Hyneter:用于目标检测的混合网络变压器
本研究指出 CNN 和 Transformer 检测器之间的本质差别是特征提取和传播中的本地信息和全局依赖之间的差距,为了解决这些差异,我们提出了一种新的远景 Transformer,称为 Hybrid Network Transforme - 语义提炼引导显著性目标检测
本文提出了一种基于 Vision-Transformer 的语义蒸馏协助显著目标检测方法,通过融合从生成的图像字幕中语义蒸馏的知识,可以更好地揭示物体之间、物体与环境之间的显著性,并弥补了昂贵标注的主观性不足。在五个基准数据集上的综合实验表 - CVPR无监督降质表示学习用于盲超分辨率
本文提出了一种无监督的降噪表征学习方案和一种 Degradation-Aware SR(DASR)网络,该方案可以区分表征空间中的各种降级,并通过学习提取判别性表征来获得准确的降级信息,在合成和真实图像上的实验结果表明了该方法的优越表现。
- GraphTCN: 人类轨迹预测的时空交互模型
本研究提出了基于 CNN 的时空图形框架 GraphTCN,通过将空间交互作为社交图形进行建模,并使用修改的时间卷积网络来捕捉时空交互。实验结果证实,该模型在各种轨迹预测基准数据集上实现了更高的性能和更高的准确性。
- 基于体素数据的三维网格模型生成
本研究介绍了一种新的体系结构,可实现直接从三维图像体积转换为三维表面,无需后处理并具有比当前方法更好的准确性,证明其优于最先进的分割方法。
- GLAMpoints: 贪心学习精确匹配点
本文介绍了一种新颖的基于卷积神经网络的特征点检测器 - GLAMpoints-,并将其应用于视网膜图像等领域,证明了 GLAMpoints 在特定领域的正确匹配和注册质量上优于传统检测器和现有 CNN-based 方法。
- ACL利用比喻意义识别症状词以提高个人健康表述检测
通过使用现代意象用法检测和基于 CNN 的个人健康提及检测,本研究实现了两种方法:管道式方法和特征增强式方法,从而提高了个人健康提及检测的准确性,得出了平均 2.21% F-score 的结果。
- 深度目标共分割
本文提出了一种基于深度学习的对象共分割方法,使用 CNN-based Siamese 编码器 - 解码器体系结构,利用相互关联的特征提取和掩码生成技术来较好地完成同类别对象的提取,实验结果表明,与其他算法相比,该方法具有更好的共分割效果。
- 为迁移学习学习更通用的表示
本文提出两种方法,并基于多元化训练问题提出了一种统一框架来改善普适性,同时提出了新的评估普适性的指标,并运用转移学习方案,在 10 个问题上验证了其效果与价值。
- CVPR何为行人检测带来帮助?
本文介绍了利用额外特征增强 CNN-based 行人检测方法的有效性,并提出了一种利用多任务训练学习额外特征的网络结构 HyperLearner,通过多次实验得出这种方法的有效性。
- 细节呈现的深度视频超分辨率
本文提出了一种基于 CNN 框架的次像素运动补偿层方法(SPMC),通过合适的帧对齐和运动补偿提高了视频超分辨率重建的质量,且无需参数调节,最终实现了高质量的图像细节恢复。
- CVPR深度户外照明估计
本文介绍了一种基于卷积神经网络的方法来从低动态范围(LDR)图像中估算高动态范围(HDR)全景图的户外照明,通过训练网络并提取大量的输入图像与输出照明参数对,本文的方法允许恢复真实感照明条件并能从单一图像中实现逼真的虚拟物体插入。
- 面向目标提议与检测的子类别感知卷积神经网络
本文提出一种基于亚类别感知的 CNN 目标检测方法,使用新颖的区域提出网络和检测网络,以亚类别信息引导提出生成过程和实现联合检测和亚类别分类,从而在常用基准上实现了检测和姿态估计的最佳表现。