本文提出了三个特别设计用于视频VQA的新任务,推出一个新的大型数据集TGIF-QA,并提出了一种利用空间和时间关注的双LSTM方法,证明其在经验评估中的有效性。
Apr, 2017
该研究针对视频问答这一任务,提出增加bounding boxes数据集,以此为基础构建了STAGE框架,在空间和时间域上对视频进行处理,以便回答关于视频的自然语言问题,并展示了实验结果和可视化。
Apr, 2019
本研究提出了一种基于双过程神经架构的视频问答系统,该系统能够理解语言、表示视频内容,并通过多步推理过程得出答案
Jul, 2019
本文介绍HySTER:一种可以理解视频中的物理事件的混合时空事件推理器,将深度学习和符号人工智能的推理能力和说明性相结合应用于VideoQA问题,采用一种基于时间、因果和物理规则的方法,并在CLEVRER数据集上展示出了最先进的问题回答准确性结果。
Jan, 2021
本论文针对计算机视觉模型做了一个新的基准,名为Action Genome Question Answering (AGQA),并提供了3.9M个问题答案对的平衡子集,以最小化偏倚。AGQA引入了多个训练/测试集来测试各种推理能力,包括新颖组合的泛化,间接引用以及更多的组合步骤。这项研究发现,最好的模型仅能比利用语言偏见的非视觉基准优秀一些;并且现有的模型都无法推广到训练中未见过的新颖组合。
Mar, 2021
本文提出了一种将视频建模为条件分层图层次结构的方法,通过组合不同层次的视觉元素来对齐语言查询中的多粒度语义概念,该方法超越了先前方法的表现,且对于不同类型的问题也具有更好的泛化能力。
Dec, 2021
本文提出了一种基于(2.5+1)D 场景图表示的视频问答方法,将视频帧转成伪-3D视图并保持语义,然后基于此表示应用 transformer 模型进行推理,实验证明,该方法在视频问答任务中具有优异的性能。
Feb, 2022
本论文旨在解决复杂的视频问答问题,针对长时间包含多个对象和事件的视频,通过提出时空合理化和TranSTR等方法,成功地在多个数据集上取得了新的最先进结果。
Jul, 2023
该论文提出了一种关键词感知的相对时空图网络(KRST)用于视频问答,通过在问题编码过程中使用注意机制让问题特征对关键词敏感,指导视频图构建,并整合了相对关系建模以更好地捕捉物体节点之间的时空动态,实验证明KRST方法在多个现有方法上具有优势。
该研究提出了一种针对实际视频问答任务的神经符号框架(NS-VideoQA),通过引入场景解析网络(SPN)和符号推理机(SRM),实现了对复合时空问题的高效推理和回答能力的提升。
Apr, 2024