合并多个数据集以改进基于外观的视线估计
我们提出了MPIIGaze,包括213659个人的实验数据,并对现有的三个数据集进行了广泛的评估,研究了目标视线范围、光照条件和面部外观变化等关键挑战,提出了第一种深度外观估计方法GazeNet,并将平均误差从13.9度提高到10.8度,这是当前技术水平的改进。
Nov, 2017
本文介绍了一种基于差分方法的凝视估计技术,使用差分卷积神经网络直接预测同一受试者的两个眼睛输入图像之间的凝视差异,然后利用推断出的差异来预测新眼睛样本的凝视方向。实验结果表明,该方法即使只使用一个校准样本或在后续使用受试者特定的凝视适应方法时,也始终优于现有的方法。
Apr, 2019
使用新型凝视分解方法和单凝视点校准方法,该文提出了一种改进估算凝视点的方法,采用深度卷积网络估算凝视角度的主体独立项,实验结果表明,在消除校准的情况下,所提方法比现有技术的表现好100%,而通过仅仅使用少量图像校准,误差可以减少多达35.6%,达到了最先进的标准。
May, 2019
本研究提出了基于单目三维面部重建的合成凝视估计训练数据的新方法,利用投影匹配过程,配合掩码引导凝视估计模型和数据增强策略,显著提高了在具有非重叠凝视分布的跨数据集环境下的估计性能。
Jan, 2022
通过调整 ResNet 结构的几个简单参数,我们在三个常用数据集上实现了目光估计任务的最先进性能,其中 ETH-XGaze 上的误差为 3.64,MPIIFaceGaze 上的误差为 4.50,Gaze360 上的误差为 9.13。
Aug, 2023
通过双视图凝视估计网络(DV-Gaze)和双视图信息交互卷积(DIC)块,该研究论文提出了一种利用双摄像头进行凝视估计的方法,综合考虑了双视图特征和几何关系,并通过双视图转换器来提高凝视估计性能。
Aug, 2023
通过引入支离破碎辅助正则化(Branch-out Auxiliary Regularization,BAR)方法,提升注视估计的泛化能力,无需对目标域数据进行直接访问,通过整合两个辅助一致性正则化方法,增强核心网络的能力并易于适应其他模型,实验证明该方法在四个跨数据集任务中具有卓越优势。
May, 2024
本研究解决了在复杂多样环境中,准确可靠的注视预测面临的挑战,特别是不同数据集间的分布差异对模型性能的影响。提出的证据交互融合框架(EIF)通过构建独立的数据集分支和跨数据集分支,显著提升了模型在源域和未见域的泛化能力,同时提供不确定性估计。实验结果表明,该方法在各数据集上均取得了显著性能提升。
Sep, 2024