介绍 Visual Experience Dataset(VEDB):一个由超过 240 小时的自我感知视频结合注视和头部追踪数据组成的数据集,提供了人类观察者在视觉世界中的前所未有的体验。该数据集包含 717 个会话,由 58 名 6-49 岁的观察者记录。介绍数据收集、处理和标记协议,讨论数据集内潜在的错误或偏差来源。VEDB 的应用潜力广泛,包括改进注视追踪方法、评估时空图像统计数据以及优化场景和活动识别的深度神经网络。VEDB 可以通过已建立的开放科学平台访问,旨在成为一个持续更新的数据集,并鼓励社区贡献。数据集强调了参与者隐私和减轻潜在偏差等伦理考虑。通过提供基于真实世界经验的数据集,并附有丰富的元数据和支持代码,作者邀请研究社区利用和贡献 VEDB,以促进对自然环境中视觉感知和行为的更深入理解。
Feb, 2024
提出了一种利用视频数据集和图像相结合的方法,通过学习用户注视与眼部外形之间的联系来提高眼动追踪的精度,实现基于网络摄像头的高准确度屏幕眼动追踪,不需要标记的数据并且通过视觉刺激和眼部图像信息融合可以达到监督式个性化的效果。
Jul, 2020
该篇论文提出了一种基于卷积神经网络的注意力编码器 - 解码器网络模型,用于迅速高效地对眼睛各部分进行分割,包括巩膜、虹膜、瞳孔和背景,取得了较好的结果。
Oct, 2019
本文提出了一种多类眼部分割方法,包括三个主要阶段:通过深度网络从输入获取灰度图像、分割三个不同的眼部区域,并通过启发式过滤器去除不正确的区域,使用 depthwise 卷积操作减少计算成本,实验表明该方法可以在实时推理下实现高水平的性能。
Nov, 2019
该研究利用计算机图形技术合成眼睛数据,以替代传统方法的耗时数据收集和手动标注,实现更好的性能表现。
May, 2015
本篇研究通过运用三维摄像来追踪眼表面,并利用 CNN 架构估算眼球运动,解决了眼表面分析在光源移动和透明眼组织等问题上的难点,从而提高了对干眼症的有效诊断。
Sep, 2022
我们提出了 MPIIGaze,包括 213659 个人的实验数据,并对现有的三个数据集进行了广泛的评估,研究了目标视线范围、光照条件和面部外观变化等关键挑战,提出了第一种深度外观估计方法 GazeNet,并将平均误差从 13.9 度提高到 10.8 度,这是当前技术水平的改进。
Nov, 2017
该研究综合了语义分割和多尺度信息注入的方法,成功地在保留关键细节的情况下合成了符合给定病人眼睛语义分割掩码的眼睛图像。
通过开发头部和眼部跟踪数据集,本研究揭示了在多个用户和视频的实验设置中,眼球注视相对视野下方固定位置的一致偏移现象,从而挑战了视野中心位置的注视注意力按照高斯分布递减的广泛假设,并提供了根据给定头部或眼部坐标和预生成的视频注视分布图集生成注视分布的脚本。
Mar, 2024
该研究提供了 Gaze360 数据集和方法,可以在不受限制的图像中进行强大的三维凝视估计,通过时间信息扩展了现有模型,直接输出凝视不确定性的评估,并展示了在不同的凝视基准数据集上推广的性能,最后,在超市环境中应用该模型可用于评估客户的注意力。