提出了一种基于时空一致的显著性检测的新型有效的非刚性物体跟踪框架,其中利用了定制的完全卷积神经网络 (TFCN) 来建模该图像区域的本地显著性先验,同时提出了多尺度多区域机制来生成本地显著性地图,最后,利用预测的显著性地图,提出了一个非刚性物体跟踪算法,该算法在显著性检测和视觉跟踪方面都取得了竞争性的性能。
Feb, 2018
本文提出了一个深度学习模型,通过数据增强技术和动态显著性模型来高效地检测视频中的显著区域,该模型在 DAVIS 和 FBMS 数据集上达到了最新的性能标准。
Feb, 2017
通过利用视频中连续帧的冗余和相关的互补信息,我们提出了一个时空融合框架,其中包括多帧和单帧关注模块,以及可学习地合并特征图以改进物体检测性能的双帧融合模块。实验证明,该融合模块相比基线物体检测器能够提高检测性能。
Feb, 2024
本文提出了一个名为 Spatiotemporal Sampling Network (STSN) 的模型,使用了时间上的可变卷积,在视频中进行目标检测。通过从相邻的帧中学习空间采样特征,本文展示了 STSN 具有鲁棒性,并且不需要额外的监督。该模型在 ImageNet VID 数据集上表现优异,并且相比于之前的视频目标检测方法,本文的方法利用了更简单的设计且对于训练没有光流数据的要求。
Mar, 2018
本研究提出了一种名为 VideoGCRF 的方法,采用深度高斯条件随机场对密集连接的时空图进行精确和高效的推断,能够与现代深度网络一起进行端到端的视频理解训练,并在语义分割和实例分割的任务中呈现出实证上的优越性。
Jul, 2018
提出了一种基于可学习的空间 - 时间采样 (LSTS) 模块、分散递归特征更新 (SRFU) 和密集特征聚合 (DFA) 模块,实现了视频目标检测中的准确空间对应关系,增强特征更新,提升检测性能,并在 ImageNet VID 数据集上取得了最先进的表现和实时速度。
Nov, 2019
本文提出了一种新颖的时空网络来提高视频显著性检测的性能,通过将轻量级的时间模型整合到空间分支中,粗略定位与值得信赖的显著运动相关的空间显著区域,同时,空间分支本身能够多尺度地反复改善时间模型,从而使空间和时间分支能够互相交互,实现相互性能提高。我们的方法易于实现且有效,在实时速度下以 50 FPS 实现高质量的视频显著性检测。
Aug, 2020
本篇论文提出了一种基于时空特征融合的 RSCD 网络 STNet,通过时间特征融合模块和空间特征融合模块强化感兴趣的变化并恢复变化表征的空间细节,实验表明该方法在三个基准数据集上取得了最先进的性能。
Apr, 2023
通过引入空间 - 时间变形注意力模块实现局部空间 - 时间特征融合,本研究提出的 STNet 在每个编码器和解码器阶段都能有效地进行深度特征聚合,同时引入编码器特征洗牌策略提高多帧预测的检测速度。实验结果显示,STNet 在公共乳腺病变超声视频数据集上达到最先进的检测性能,同时有两倍的推理速度。
Sep, 2023
本文提出了一种包括时空特征的方法来解决语义视频分割问题,使用卷积神经网络和长短时记忆结构相结合的深度学习模型取得了 Camvid 和 NYUDv2 数据集的最先进语义分割性能。
Aug, 2016