信不信由你,我们知道你在看什么!
提出了一种利用视频数据集和图像相结合的方法,通过学习用户注视与眼部外形之间的联系来提高眼动追踪的精度,实现基于网络摄像头的高准确度屏幕眼动追踪,不需要标记的数据并且通过视觉刺激和眼部图像信息融合可以达到监督式个性化的效果。
Jul, 2020
该研究使用基于 Transformer 的架构自动检测图像中的对象,并建立对象与注视的关联,从而实现全面的、可解释的注视分析,包括注视目标区域、注视像素点、被注视对象的类别和图像位置。该方法在各项指标上均取得了最新的成果,对于注视目标检测提高了 AUC 的达到 2.91%、注视距离减少了 50%、注视对象分类和定位平均精度提高了 11-13%,且代码可在链接中获得。
Jul, 2023
本文提出了一种基于单个姿态估计模型采集的面部关键点的相对位置来估计个体注视方向的神经网络回归器,结合目标遮挡情况下的置信度门控单元,实现了对复杂辅助生活环境中居民与周围物体互动的自动推理;实验结果表明,该模型与数据集特定的复杂基线模型相媲美。
Sep, 2019
本研究提出一种新的单阶段端到端注视估计方法,可同时预测图像中多个面孔(>10)的注视方向,并使用 MPSGaze 数据集验证了该方法的有效性和易用性,为实时应用提供支持。
Apr, 2022
GazeMotion 是一种结合过去人体姿势和人眼注视信息进行人体动作预测的新方法,通过预测未来眼睛注视点并将其与过去的姿势融合成注视 - 姿势图,再利用残差图卷积网络预测身体运动。在多个基准数据集的评估中,我们的方法在关节位置误差的平均改进上超过了最先进的方法 7.4%。即使使用头部方向作为眼睛注视的替代,我们的方法的平均改进率也达到了 5.5%。我们还通过在线用户研究展示了我们方法在感知逼真度方面超过之前方法的结果。这些结果展示了眼睛注视在人体动作预测中的重要信息内容以及我们方法在利用这些信息方面的有效性。
Mar, 2024
通过使用半监督对比学习框架,本文提出了一种新的对比损失范式,从而实现了基于注视方向的估计,该框架在使用少量带有标签的注视数据集时,可以找到泛化解决方案,即使对于未见过的人脸图像也能有良好的性能表现,与其他用于注视估计的最先进对比学习技术相比,我们的对比回归框架表现良好。
Aug, 2023
我们提出了一种使用安装在车辆挡风玻璃和仪表盘上的普通摄像头来估计驾驶员凝视点的新方法。该方法通过开发一种卷积网络来同时分析场景图像和驾驶员面部图像,其中包含一个相机校准模块,可以计算表示驾驶员和摄像头系统之间空间配置的嵌入向量,该模块改善了网络的性能并可以进行端到端的联合训练。我们还引入了一种大规模的驾驶数据集,其中包含了真实驾驶情景的图像以及驾驶员面部和凝视数据,对该数据集的实验表明,所提出的方法优于各种基准方法,均方误差为 29.69 像素,相对于场景摄像头的 $1280 {imes} 720$ 分辨率而言,误差较小。
Apr, 2024
我们提出了一种名为 HGTTR 的方法,它可以在同时检测人类头部位置和目标注视物,在全局图像背景下推导关于显著对象与人眼注视之间的关系,这种方法不仅比现有的基于两阶段方法在性能上更好,而且可以在端到端的方式下直接预测所有人的头部位置和目标注视物。
Mar, 2022