利用可穿戴相机的图像数据,结合卷积神经网络和递归神经网络的优点,提出了一种基于批量处理的系统来识别 21 种日常活动,准确率达 89.85%,优于现有的端到端方法。
Oct, 2017
本文提出了一种利用鸟瞰视角下与用户的距离和方向特征识别社交互动的算法,将相应的时空序列输入长短记忆循环神经网络进行分类,并在 3 万张照片的数据集上进行了实验验证,取得了良好的效果。
May, 2016
该论文提出了一种使用可穿戴照相机实现自动社交模式刻画的系统,其中通过检测与相机佩戴者互动的人,并将检测到的社交互动分类为正式和非正式两个步骤,在事件级别上对每个潜在的社交事件进行建模,并使用 LSTM 网络进行时间序列分类。最终通过聚类同一个人在整个社交互动集中的出现来全面理解用户的社交关系的多样性和频率。实验表明,该系统应用于自我中心的照片流上的社交模式刻画任务取得了有望的结果。
Sep, 2017
本文研究以自拍照片流为代表的活动识别问题,提出了自动计算边界对活动识别结果的影响,并通过一个新的数据集展示了几种深度学习结构对不同用户的泛化能力。
Sep, 2018
该研究使用卷积神经网络提取语境和语义信息,并通过语言处理技术将其定义为概念,然后利用时间上的连续性将共享上下文和语义属性的图像组合在一起,从而实现佩戴式相机拍摄的照片流的自动语义分割,并在活动识别等方面取得了优秀的效果。
Dec, 2015
本文提出了一种用于长期活动识别的紧凑型 3D 卷积神经网络(CNN)体系结构,通过使用稀疏光流体积作为输入,就能分类相机佩戴者的活动,从而实现了对非结构化第一人称视角视频的时间分割和分类,分类准确度达到 89%,并超过当前最先进技术 19%,此外还能识别视频是否为第一人称视角,准确度高达 99.2%,比当前最先进技术高 24%。
Apr, 2015
通过一项健身活动视频的完全标注数据集,本文证明了基于原始像素的端对端学习方法可以与基于姿势估计的先进动作识别软件管道媲美,并且可以支持实时的重复计数等具有时间细粒度的任务。
May, 2023
使用深度学习技术和卷积神经网络来预测个人在日常生活中的活动,利用上下文信息(如时间和星期几)来提高分类准确性。
Oct, 2015
提出了一种基于关键帧选择的摘要方法,该方法利用卷积神经网络提取的视觉特征对由佩戴式摄像头拍摄的自我记录图像流进行视觉摘要,通过无监督聚类将图像流划分为事件,并从每个事件中提取最相关的关键帧。经过盲品测试验证结果的质量。
May, 2015
该研究提出了一种基于 RGB 视频的人体活动识别深度学习模型,配合骨架数据以及算法技术(如数据增强,动态帧随机失活和梯度注入)来训练模型,实验结果表明该模型能够超越现有采用 RGB-D 视频流所采用的解决方案。
Dec, 2018