- CVPRFAPNet:一种高效的频率自适应基于点的眼动追踪器
利用点云作为事件表示来利用眼动任务中事件的高时间分辨率和稀疏特性,重新思考基于点的架构 PEPNet 并引入长期样本关系预处理的创新设计 FAPNet,以实现自适应跟踪和利用样本之间的时间相关性的频适应机制。在 SEET 合成数据集上,FA - 在 VR 中建立凝视驱动认证性能的基线:对极大数据集的广度 - 优先调查
利用大规模目光记录数据集,本研究建立了基准,旨在回答关于目光驱动认证性能的基础研究问题。研究发现,当配备先进的机器学习架构和足够大的训练数据集时,目光认证可以达到 FIDO 标准所要求的准确性。
- 当眼动追踪遇上机器学习:医学图像分析中的应用综述
利用眼球追踪技术提取医学图像中有意义的特征和洞察力,以改进医疗诊断的方法。通过整合人类认知和人工智能发展,将眼球追踪数据与机器学习和深度学习方法相结合,提高医学图像分析的准确性和效率。该系统性综述研究着眼于探索通过眼球追踪应用和方法来增强医 - 一种低功耗的神经形态学方法实现高效眼动跟踪
本文介绍了一种用于眼动追踪的神经形态学方法,利用由 Dynamic Vision Sensor(DVS)摄像头捕获的纯事件数据。该方法结合了一个经过直接训练的脉冲神经网络回归模型,并利用了一种先进的低功耗边缘神经形态学处理器 Speck,旨 - 基于注视点的虚拟现实头显眼动跟踪自校准
该研究提出了一种新颖的自校准眼动跟踪方法,基于用户视点的自由移动和视觉固定期间不同视点上对准点分布在物体表面的小区域的假设,使用 3D 场景的时间序列数据检测注视点,通过最小化注视点的离散度来优化校准参数,实现了在虚拟现实环境中平均误差低于 - LEyes: 基于合成眼睛图像的轻量级深度学习眼动追踪框架
通过使用简单的光线分布模拟眼睛的关键图像特征,Light Eyes(LEyes)框架能够通过多样的凝视估计任务来令神经网络训练更容易配置,从而解决了深度学习在目光估计方面的问题。LEyes 训练的模型在瞳孔和眼角膜反射定位方面在众所周知的数 - 开放注视:复制 Google 眼动追踪论文的开源实现
本文提出了一种基于智能手机的凝视追踪器的开源实现,利用机器学习技术实现了与专业设备相当准确度的眼动追踪解决方案,并通过复制之前的研究关于眼动行为和自然图像观察中显著性分析的关键发现,强调了智能手机凝视追踪在阅读理解挑战中的应用潜力,以及在视 - 3ET: 使用基于变化的 ConvLSTM 网络的高效事件驱动眼动追踪
本研究提出了一种用于事件驱动眼动追踪的稀疏变化卷积长短期记忆(CB-ConvLSTM)模型,对于下一代可穿戴医疗技术如 AR/VR 头戴式设备至关重要。该模型利用了受视网膜启发的事件相机的优势,即低延迟响应和稀疏输出事件流,超过传统基于帧的 - 使用眼动和鼠标数据自动链接思考记录与刺激,丰富可用性测试的口头反馈
本文提出了一种自动分析口头协议的方法,该方法可以将用户反馈与特定的 Web 页面元素关联起来,并使用眼动跟踪和鼠标跟踪测试口述反馈和刺激之间的联系,以及测试参与者是否注意到或指向他们在口头描述的 Web 页面内容。
- 通过眼动追踪和语言特征分析文学小说读者的参与度
本研究使用眼动仪、句子级注释和整体参与度调查,分析 23 名读者对两篇短篇小说的反应及其与文本质量之间的关系,旨在进一步了解小说中读者的参与度,以更好地推动创作式叙事生成和协作写作工具的发展。
- 眼动追踪虚拟现实:方法和隐私挑战的综合调查
该研究综合了 2012 年至 2022 年之间的文献,重点概述了虚拟现实中的眼动追踪技术及其在认证、隐私保护等方面的应用与挑战。针对用户隐私泄露问题,提出了三个研究方向。
- 使用在合成数据上训练的深度学习精确定位眼部图像中角膜反射
本文提出了使用深度学习方法基于模拟数据准确定位眼睛图像中单个角膜反射点的中心,且性能比目前算法更好,并可解决目前深度学习模型在视线估计中常见的数据可用性问题,可用于提高基于角膜反射的眼动追踪的精度和准确性。
- 凝视意图估计:在 HRI 中的原理、方法和应用
该论文综述了视觉注意力、眼动追踪及基于注视点的意图识别在智能机器人、电信系统和辅助机器人系统中的应用,并强调了设计这些系统时需要考虑的重要人因素问题和当前的限制。
- 通过眼动追踪实现日常虚拟现实
通过调查注意力和认知模型、隐私保护方法和协议,研究人员完成了 3 个主要研究贡献,旨在将 VR 和随身式头戴式设备推向日常生活。
- IJCAI使用凝视行为进行自然语言处理的调查
本文讨论了在自然语言处理中解决不同任务时使用注视行为的方法,重点在于研究减轻运行时记录注视行为需求的方法,并提及了现有的多语言注视行为数据集,最后讨论了在教育领域中应用注视行为的方法与其可以帮助解决的问题。
- 使用橡皮布模型的隐私保护眼睛视频
本论文提出了基于橡皮版模型的新方法来处理眼睛视频中的隐私问题,将当前可识别的虹膜纹理用不同的虹膜模板替换,同时扩展到图像融合和中值表示,证明可以在不显著降低分割和瞳孔检测准确度的情况下操作视频。
- ICCVSID4VAM: 面向视觉注意力建模的合成图像基准数据集
通过使用 230 个合成图像对显著性模型的性能进行了基准测试,研究发现,受到谱 / 傅里叶灵感的模型在显著性测量方面表现更好,并与人类心理物理实验更加一致,提出了一种新的方法来评估显著性模型,考虑了独特的低级特征背景下的合成图像。
- DADA-2000: 驾驶员专注度能否预测驾驶事故?通过基准测试分析
本文提出了一个新的基于驾驶员目光追踪和车祸注释的视频基准测试集(DADA-2000),涵盖了 54 种不同类型的车祸,可以更全面地预测即将发生的事故。
- 外貌为基础的方法的评估及其对凝视应用的影响
本研究评估了最先进的基于外观的凝视估计,涉及不同的感应距离,室内和室外的交互场景,带和不带眼镜的用户,并讨论了其在具有重要凝视为基础的应用程序中的应用,因此,我们呈现了 “OpenGaze”,这是外观凝视估计和交互的第一个软件工具包,以使其 - CVPR面向所有人的眼动跟踪技术
本文介绍了 GazeCapture 这一大规模数据集,使用这一数据集训练了基于卷积神经网络的眼动预测模型 iTracker,实现了在移动设备上的实时眼动追踪。该模型能够达到较高的预测准确率,并具有广泛的泛化性能。