Gaze360: 野外物理无约束凝视估计
本研究针对自然场景下获取三维凝视注释的挑战进行了探讨,提出了一种基于 LAEO 标签的弱监督凝视估计算法,该算法通过训练算法和损失函数实现了可行的三维凝视监督,结果表明,这种方法对于半监督凝视估计的准确性和跨域泛化的改进方面取得了显着的进展。
May, 2021
CrossGaze 是一个强大的注视估计基准,利用计算机视觉架构和基于注意力的模块,通过集成并适应于 3D 注视估计任务的已建立模型,实现了对非受限环境下注视方向的准确预测,并在 Gaze360 基准测试中展现出优于多种最新方法的性能,均方角误差达到 9.94 度。该模型为未来的注视估计研究与发展提供了坚实的基础,为实际场景中的准确注视预测铺平了道路。
Feb, 2024
我们提出了 MPIIGaze,包括 213659 个人的实验数据,并对现有的三个数据集进行了广泛的评估,研究了目标视线范围、光照条件和面部外观变化等关键挑战,提出了第一种深度外观估计方法 GazeNet,并将平均误差从 13.9 度提高到 10.8 度,这是当前技术水平的改进。
Nov, 2017
研究人员提出了一种基于立体视觉启发的神经网络技术和几何搜索方案来生成高质量的 3D 姿势地面真实数据,使不需要专业训练模式和辅助损失函数的神经网络模型在野外图像数据中实现良好的 3D 姿态估计结果。
Apr, 2019
本文介绍了一个新的注视估计数据集 ETH-XGaze,其中包含超过一百万个高分辨率的图像,记录了各种头部姿态下注视点的位置,为今后的注视估计研究提供了统一的实验协议和评估指标。
Jul, 2020
提出了一种利用视频数据集和图像相结合的方法,通过学习用户注视与眼部外形之间的联系来提高眼动追踪的精度,实现基于网络摄像头的高准确度屏幕眼动追踪,不需要标记的数据并且通过视觉刺激和眼部图像信息融合可以达到监督式个性化的效果。
Jul, 2020
本文针对外界复杂的实际应用场景下的视线估计问题,在自然、真实的使用环境中使用 MPIIGaze 数据集进行研究,并提出了一种多模态卷积神经网络的方法,通过跨数据集评估证明该方法显著优于现有的方法。我们还对三个最新数据集上的几种最先进的基于图像的凝视估计算法进行了细致评估,确认了外部环境变化对凝视估计的影响,为实际的实时视线估计研究提供了重要的参考。
Apr, 2015
通过收集 GW 数据集(该数据集包括眼部运动、头部角速度、眼睛和场景图像),训练和评估了两种机器学习算法(随机森林和递归神经网络模型),用于眼睛运动分类(如注视、眼球、追踪)。分类器实现了近似于人类检测注视和眼球运动的 90%的性能,但在检测追踪运动时则低于 60%,并且追踪分类在没有头部运动信息的情况下更低。最佳模型对特征的显着性分析显示,分类不需要头部和眼睛跟踪坐标系的空间对齐。
May, 2019
本研究提出一种新颖的针对混合现实环境的三维凝视追踪框架,旨在增强团队协作和共同注意力,通过利用计算机视觉和机器学习技术,实现精确的三维凝视估计,无需依赖专用硬件或复杂的数据融合,在组环境中追踪凝视模式,解决常见深度估计误差,保证数据集的空间和身份的一致性,实证结果展示了我们方法在群组环境中的准确性和可靠性,为在动态和非结构化环境中的教育和专业培训应用中的行为和互动分析提供了推动机制。
Jun, 2024
本文研究了在平板电脑上的凝视估计。作者的主要设计目标是通过平板电脑的自然使用,利用前置摄像头进行非校准凝视估计,在此期间平板电脑的姿势和握持方式不受约束。作者收集了第一个大规模的无限制凝视数据集,并提出了一个名为 TabletGaze 的算法,它利用多级 Hog 特征和随机森林回归器进行凝视估计。与其他算法相比,这个算法的平均误差为 3.17 厘米。并在数据集大小、种族、佩戴眼镜和用户姿势等因素对凝视估计精度的影响方面进行了广泛的评估和重要观察。
Aug, 2015