关键词spatio-temporal localization
搜索结果 - 7
- AAAI半监督主动学习视频行为检测
本文主要研究标签高效学习、视频动作检测、半监督主动学习、信息样本选择和时空定位等主题。提出了一个半监督主动学习方法,利用标记和未标记数据以及信息样本选择来进行动作检测。通过提出的噪声增强和基于高通滤波的关注机制(fft-attention) - ECCV视频中的视觉关系定位
本文介绍了一项新任务:视频中的视觉关系定位,目的是在视频中定位给定的主谓宾形式关系,以提供支持其他高级视频语言任务(例如视频语言基础和视频问答)。 通过协同优化构建的两个区域序列以及关系关注和重构,我们进一步提出了通过视觉实体之间的空间注意 - ICCVGeoStyle:发现时尚趋势与事件
本研究提供了一种自动化框架,分析大量的街头时尚图片,以发现和预测各种时尚属性的长期趋势和自动发现的风格,并确定影响人们穿着的时空本地化事件。相比之前的方法,我们的框架可以做出超过 20%的长期趋势预测,并发现了成百上千个影响全球时装的具有社 - 建模时空人体轨迹结构用于动作定位
本文提出了一种基于循环定位网络(RecLNet)的视频人类行为的时空定位方法,能够显著提高人类行为的时空定位效果,尤其在时间定位方面的改进表现较好,已在 UCF101-24 和 DALY 两个数据集上进行了评估。
- 点级监督的行动定位
该论文提出一种基于点监督的行为识别方法,利用无监督的时空提案提取视频中的候选区域,并通过稀疏的点注释指导模型训练,在测试时通过伪点对提案进行筛选,实验结果表明该方法在行为识别上与传统的注释方法不相上下,且能够更好地应对数据的噪声与稀疏性。
- 基于点标注的提议的动作定位
该研究旨在通过在视频中对稀疏的一些帧上标注动作的点,利用重叠度量和多实例学习优化的目标,而非繁琐的矩形框注释来提高视频中行动的时空本地化性能,并展示了从 Hollywood2 训练和测试视频得到的 Spatio-temporal 行动注释, - Objects2action: 不依赖任何视频样例的动作分类与定位
本文提出了一种基于对象语义嵌入和零样本学习的动作识别方法,实现了对未知动作的识别和定位。