深度图像注视估计
本文介绍了一种基于差分方法的凝视估计技术,使用差分卷积神经网络直接预测同一受试者的两个眼睛输入图像之间的凝视差异,然后利用推断出的差异来预测新眼睛样本的凝视方向。实验结果表明,该方法即使只使用一个校准样本或在后续使用受试者特定的凝视适应方法时,也始终优于现有的方法。
Apr, 2019
使用人工神经网络建立了一个模块化系统,通过对分别裁剪的眼睛进行估计,利用人脸检测和头部姿势估计组件,无需特殊硬件或红外滤光片,仅使用内置 RGB 相机进行人眼注视估计,通过包含大量合成数据集在训练模型中,达到了比相关方法更高的准确度。
Nov, 2023
本文基于深度学习方法综述了当前外貌为基础的凝视估计技术。介绍了数据预处理和后处理方法,将所有公开数据集进行了特征化,并设置了评估准则。本研究提供了参考,可供深度学习或未来凝视估计研究使用。
Apr, 2021
本文提出了一种基于单个姿态估计模型采集的面部关键点的相对位置来估计个体注视方向的神经网络回归器,结合目标遮挡情况下的置信度门控单元,实现了对复杂辅助生活环境中居民与周围物体互动的自动推理;实验结果表明,该模型与数据集特定的复杂基线模型相媲美。
Sep, 2019
该研究提出了一种不需要注释的低维注视表示学习方法,在少于 100 个标注样本的情况下,实现了有竞争力的 few-shot 注视估计结果,并且可以应用于不同的实验数据集和注视网络预训练等方向。
Nov, 2019
通过使用半监督对比学习框架,本文提出了一种新的对比损失范式,从而实现了基于注视方向的估计,该框架在使用少量带有标签的注视数据集时,可以找到泛化解决方案,即使对于未见过的人脸图像也能有良好的性能表现,与其他用于注视估计的最先进对比学习技术相比,我们的对比回归框架表现良好。
Aug, 2023
我们提出了 MPIIGaze,包括 213659 个人的实验数据,并对现有的三个数据集进行了广泛的评估,研究了目标视线范围、光照条件和面部外观变化等关键挑战,提出了第一种深度外观估计方法 GazeNet,并将平均误差从 13.9 度提高到 10.8 度,这是当前技术水平的改进。
Nov, 2017
探讨了利用机器学习技术进行眼部凝视估计的技术,论文中提出了在不受限制的场景下,通过使用眼部地标来预测凝视方向的方法,并讨论了采用合成数据进行眼部地标本地化训练的学习方法,并提出了使用该模型进行个性化凝视估计的方法。
Jul, 2022
本论文使用多模态卷积神经网络在远程摄像机中完成了独立于人物和头部姿态的三维凝视估计。通过将人脸,眼睛区域和面部标志作为神经网络中的单个流来估计静态图像中的凝视。随后,利用凝视的动态特性,将所有帧的学习特征馈送到多到一循环模块,以预测最后一帧的三维凝视向量,其在多种头部姿态和凝视方向上获得了显著的改进。
May, 2018
通过调整 ResNet 结构的几个简单参数,我们在三个常用数据集上实现了目光估计任务的最先进性能,其中 ETH-XGaze 上的误差为 3.64,MPIIFaceGaze 上的误差为 4.50,Gaze360 上的误差为 9.13。
Aug, 2023