本文提出了一种基于学习的方法来进行眼部标志点的定位,采用该方法能够在未受控制的真实环境下较之传统方法更具优势,在个性化视线估计场景中性能优越。
May, 2018
该论文介绍了一种基于几何的方法来解决现有的真实时间凝视估计系统所面临的挑战,利用普通消费级硬件生成准确、稳定的人脸和虹膜的三维地标,从而预测眼睛凝视方向,实现低计算资源要求下的高精度、实时的眼睛凝视估计。
Dec, 2023
通过使用半监督对比学习框架,本文提出了一种新的对比损失范式,从而实现了基于注视方向的估计,该框架在使用少量带有标签的注视数据集时,可以找到泛化解决方案,即使对于未见过的人脸图像也能有良好的性能表现,与其他用于注视估计的最先进对比学习技术相比,我们的对比回归框架表现良好。
Aug, 2023
本文基于深度学习方法综述了当前外貌为基础的凝视估计技术。介绍了数据预处理和后处理方法,将所有公开数据集进行了特征化,并设置了评估准则。本研究提供了参考,可供深度学习或未来凝视估计研究使用。
Apr, 2021
本文提出了一种基于单个姿态估计模型采集的面部关键点的相对位置来估计个体注视方向的神经网络回归器,结合目标遮挡情况下的置信度门控单元,实现了对复杂辅助生活环境中居民与周围物体互动的自动推理;实验结果表明,该模型与数据集特定的复杂基线模型相媲美。
Sep, 2019
使用人工神经网络建立了一个模块化系统,通过对分别裁剪的眼睛进行估计,利用人脸检测和头部姿势估计组件,无需特殊硬件或红外滤光片,仅使用内置 RGB 相机进行人眼注视估计,通过包含大量合成数据集在训练模型中,达到了比相关方法更高的准确度。
Nov, 2023
该研究提出了一种不需要注释的低维注视表示学习方法,在少于 100 个标注样本的情况下,实现了有竞争力的 few-shot 注视估计结果,并且可以应用于不同的实验数据集和注视网络预训练等方向。
Nov, 2019
提出实时框架及卷积神经网络用于分类人眼凝视方向和评估眼部访问线索,并使用改进的 Viola-Jones 算法检测人脸,通过几何关系和面部特征点得到眼部区域,并进行逐帧测试以获得平均帧速率 24fps,结果显示其优于现有方法。
May, 2016
本研究评估了最先进的基于外观的凝视估计,涉及不同的感应距离,室内和室外的交互场景,带和不带眼镜的用户,并讨论了其在具有重要凝视为基础的应用程序中的应用,因此,我们呈现了 “OpenGaze”,这是外观凝视估计和交互的第一个软件工具包,以使其在人机交互中广泛使用。
Jan, 2019
介绍了一种专门设计用于单眼输入的注视估计任务的新型深度神经网络架构,通过回归中间图像表示来简化三维注视方向估计任务,定量和定性结果表明该方法比现有技术实现了更高的精度,且对视线、头部姿势和图像质量的变化具有鲁棒性。
Jul, 2018