- ICCV时空动作图网络
提出了一种基于解离图嵌入的物体相互作用图形表示,用于活动识别,该模型通过事实嵌入图结构来解开空间维度与时间变化之间的表示层次结构,并在 Charades 活动识别基准测试以及聚焦于与近碰撞事件的多物体交互的新数据集上进行了验证。
- ICCV利用深度贝叶斯变分推断的不确定性感知视听活动识别
本研究提出了一种考虑个体单模态预测不确定性的多模态贝叶斯融合框架,采用行为识别作为应用案例,并结合确定性和变分层混合以扩展贝叶斯深度神经网络的深层架构,在 Moments-in-Time 数据集的实验中表现出优于基准方法和 Monte Ca - NIPS在线集体动物运动活动识别
本研究旨在解决单一动物活动识别的问题,同时探究动物集体行为识别,通过两种深度学习网络结构可以使羊群的集体活动被有效地识别跟踪。
- ECCV从视频中进行全局连续和非马尔可夫活动分析
使用非监督学习方法,结合非参数贝叶斯方法和全局连续的时间建模,发现视频数据中的活动模式并检测异常,此方法比现有的方法更加完善和精确。
- CVPR2018 年 ActivityNet 大规模活动识别挑战赛总结
第三届 ActivityNet 大型活动识别挑战,旨在识别用户生成视频中的日常生活、高层级、目标导向的活动,并且探寻视觉内容与人类说明之间的联系。
- CVPR七牛参加 ActivityNet 挑战赛 2018
本篇论文介绍我们针对 Activitynet Challenge 2018 中的两个任务 ——trimmed activity recognition (Kinetics) 和 trimmed event recognition (Mome - ECCVBSN: 临界敏感的网络用于时间活动提议生成
本研究提出了一种基于局部到全局思想的 Temporal action proposal 生成方法,命名为 Boundary-Sensitive Network (BSN)。实验结果表明,BSN 在 ActivityNet-1.3 和 THU - CVPR野外手部分割的分析
本文研究了一种用于自主视角视频中手部分割的方法,通过使用 RefineNet 进行 fine-tune,得出了在具有挑战性的场景中更好的结果,并收集了两个新的数据集来支持实验结果。同时,本文展示了通过手部分割训练 CNN 模型可以提高手部活 - 保护感官数据免受敏感推断影响
本研究提出了移动设备的特征学习体系结构,以适当转换原始感测器数据提供灵活的、可协商的隐私保护传输,并将模型从当前的二进制设置向每个应用程序授予权限的范围内推进,以实现提供的服务。该框架已在 MotionSense 数据集上验证,在保持转换数 - 半监督卷积神经网络用于人类活动识别
本文介绍两种基于卷积神经网络的半监督学习方法,用于加强原有的分类器对未标记的数据的识别,通过实验,表明我们的 CNN 在活动识别领域中的性能优于有监督学习方法和传统的半监督学习方法,Fm 得分甚至可以提高 18%。
- 用于时间序列分类的多元 LSTM-FCNs
本研究将现有的单变量时间序列分类模型 LSTM-FCN 和 ALSTM-FCN 转化为多变量时间序列分类模型,通过增加 squeeze-and-excitation 块改善了分类的准确性。提出的模型适用于各种复杂的多变量时间序列分类任务,如 - 跨领域活动识别的分层迁移学习
为了提高交叉领域活动识别的分类精度,本文提出了一种称为层级转移学习的框架,该框架可以利用类内相似性来进行类内知识转移。在三个大型公共活动识别数据集上的实验结果表明,STL 相对于其他先进方法具有显着的分类准确性提高(提高了 7.68%),并 - ECCV视频中的时间关系推理
该论文介绍了一种时间关系网络(TRN),通过对多个时间尺度上视频帧之间的时间依赖关系进行学习和推理,使卷积神经网络具有发现视频中时间关系的显着能力。经过实验证明,TRN 配备的网络可以通过仅稀疏采样的视频帧,在 Something-Some - ActivityNet Challenge 2017 总结
2017 年 ActivityNet 大规模活动识别挑战赛:结果和参赛者论文总结。
- 基于 3D 卷积神经网络在冰球视频中实现多标签类别不平衡的动作识别
本研究利用 3D CNN 构建深度多标签 HAR 系统以解决应用于曲棍球视频中类别不平衡动作识别的问题,并对该系统进行了测试和验证,结果表明该方法比现有解决方案表现更好。
- ICCV基于批处理的自拍照流活动识别
本文研究利用深度学习,以图像流中的高级特征为基础识别佩戴式摄像机的运动,并弥补设备低帧率带来的连续帧之间的差异罅隙,从而提升了辅助技术应用中的活动识别效能。
- ICCV动作识别的深度卷积特征多核学习
采用多核支持向量机和多流深度卷积神经网络相结合的方法,在多个方面如摄像机视角、视频质量等具有挑战性的 HMDB-51 数据集上,实现了接近最先进技术的 51 种活动识别问题的性能,同时也表现出人类级别的视觉理解能力,并且结合了改进的稠密轨迹 - MobiRNN: 移动 GPU 上高效运行的循环神经网络
本文介绍 MobiRNN 优化框架,旨在解决移动设备上 RNN 模型的隐私和效率问题。实现了专门针对移动 GPU 的 GPU 卸载。通过运行 RNN 模型以进行活动识别的评估,结果表明使用 MobiRNN 明显降低了在手机上运行 RNN 模 - 在第三人称视频中识别第一人称摄像头佩戴者
本文提出了一种新的半孪生卷积神经网络架构,以解决第一人称和第三人称视频之间的人物层面的对应关系问题,在关注联合场景理解,物体追踪和活动识别方面有显着的性能提升。
- 基于增强多核学习的第一人称活动识别
本文提出了一种基于数据驱动的框架来选择和组合一些特征及其核,在第一人称视角的活动识别中,采用多核学习 (MKL) 和基于 MKL 的 Boosted MKL 方法能够有效提高识别效果。