基于时空显著性检测器的无监督视频分析
通过使用频域分析问题解决方法、引入非显著性概念、并同时考虑不同尺寸的显著性区域检测,提出了一种新的自下而上的视觉显著性检测方法,使用幅度谱与低通高斯核卷积产生显著性图,并通过熵最小化获取合适的尺度,实验结果表明该方法可预测人眼注视数据。
May, 2016
本研究提出了基于深度学习的时空注意力预测模型,其中采用两条流网络架构,探究了不同的信息融合机制。实验结果表明,采用运动信息可以有助于静态注意力估计,并取得了与最先进模型相竞争的结果。
Jul, 2016
本文提出了一种新颖的时空网络来提高视频显著性检测的性能,通过将轻量级的时间模型整合到空间分支中,粗略定位与值得信赖的显著运动相关的空间显著区域,同时,空间分支本身能够多尺度地反复改善时间模型,从而使空间和时间分支能够互相交互,实现相互性能提高。我们的方法易于实现且有效,在实时速度下以 50 FPS 实现高质量的视频显著性检测。
Aug, 2020
本文提出了基于光流和边缘线索的新型显着性估计技术和新型邻域图,用于解决快速运动,运动模糊和遮挡等视频分割的挑战,在 DAVIS,SegTrack v2 和 FBMS-59 数据集中取得了超越深度学习方法的最新成果。
Sep, 2018
本文提出了一个深度学习模型,通过数据增强技术和动态显著性模型来高效地检测视频中的显著区域,该模型在 DAVIS 和 FBMS 数据集上达到了最新的性能标准。
Feb, 2017
通过引入可解释的时空注意力机制来提高视频动作识别的准确性和模型解释性,并使用一组正则化器对其进行约束。利用弱监督的方式仅使用分类标签,模型不仅提高了准确性,还能时空自动定位区分性区域。
Oct, 2018
本论文综述不同类型的显着性检测算法,并总结现有方法的重要问题,分析了存在的问题和未来的工作。此外,简要介绍了评估数据集和定量测量,并进行了实验分析和讨论,以提供不同显著性检测方法的整体概述。
Mar, 2018
本论文提出了一种基于半监督学习的视频显著性目标检测方法,使用伪标签从稀疏注释帧中生成像素级伪标签,并结合部分手动注释,学习了空间和时间线索,进而产生准确的显著性图。实验结果表明,我们的方法在 VOS、DAVIS 和 FBMS 三个公共基准测试数据集上均明显优于所有最先进的全监督方法。
Aug, 2019
本研究提出了一种基于高斯混合模型的时空注意力模型,并使用人类注视数据进行训练,相比先前的方法,该模型在影片显著性预测方面具有最先进的表现,并在动作分类准确性方面取得了改进。
Mar, 2016
提出了一种名为 Saliency Tubes 的方法,用于改善 3D 卷积神经网络(CNNs)的解释性,旨在理解网络内部运作方式并分离视频中网络发现的最关键的时空区域。
Feb, 2019