本文提出了一种使用 Transformer 网络的统一的时间动作提议生成框架,通过 Boundary Transformer 预测边界信息和 Proposal Transformer 学习关系以实现可靠的置信度评估,结果表明,此方法在时间动作本地化任务上表现出色。
May, 2021
利用增强型 Transformer 和自适应图卷积网络来生成明确涉及情境且复杂的视频中的动作提议,以提高提议质量和保持本地上下文关联性。通过 THUMOS14 和 ActivityNet1.3 数据集的实验验证,该方法优于目前的 TAPG 模型。
Mar, 2021
通过引入对比学习,并将背景帧作为难负样本,提出了一种独立于现有 Temporal Action Localization(TAL)网络架构的边界感知候选生成方法(BAPG),用于改善 TAL 的性能。在 THUMOS14 和 ActivityNet-1.3 数据集上的实验结果表明,BAPG 能够显著提升 TAL 的性能。
Sep, 2023
这篇论文提出了一种称为 CTAP 的新型时间行动提案生成器,该生成器将滑动窗口和行动得分分组结合起来进行提案生成,并使用时间卷积神经网络进行提案排名和边界调整,实验结果显示其在 THUMOS-14 和 ActivityNet 1.3 数据集上的平均召回率(AR)远远优于现有技术,并在现有行动检测器中的应用展现出显著的改进。
Jul, 2018
本篇论文提出了一种名为 Dense Boundary Generator (DBG) 的生成时间性行动提案的高效统一框架,该框架通过实现边界分类和行动完整性回归以获取密集分布提案中的精确时间提案边界和可靠的行动置信度
Nov, 2019
本技术报告介绍了我们在 CVPR-2022 AcitivityNet 挑战赛中获取的第一名的解决方案,该解决方案旨在为长型未修剪视频中的特定类别的动作实例定位时间边界,并且通过提出 Context-aware Proposal Network (CPN) 等创新技术,在提高精度方面大有改进。
Jun, 2022
提出了一种基于 Temporal Unit Regression Network 的 Temporal Action Proposal generation 方法,通过时间坐标回归预测动作提议并改进时间边界,利用视频单元作为时间提议的基本构建块,优化了模型的计算速度,该模型在 THUMOS-14 和 ActivityNet 数据集上表现出较高的性能。
Mar, 2017
本文提出了一种 Temporal Context Aggregation Network(TCANet)来生成高质量的动作提案,通过本地和全局的时间上下文聚合和补充以及逐步边界细化,等等一连串的动作建议生成算法,以增强方法的临床普适性和可应用性。
提出了一种基于 Agent-Environment Network 的方法来生成暂时动作建议,并在 THUMOS-14 和 ActivityNet-1.3 数据集上得到了良好的表现。
Jul, 2021
提出一种名为 “Boundary-Matching Network(BMN)” 的有效、高效、端对端的建议生成方法,可以同时生成具有精确时间边界和可靠置信度分数的建议,提出 BM 机制来评估密集分布的建议的置信度得分,以及将所有密集分布的 BM 对结合成 BM 置信度图,测试结果在 THUMOS-14 和 ActivityNet-1.3 数据集上表现出一定优越性。
Jul, 2019