通过虚拟导航任务预测网络晕动症的数据集
本研究提出了一个基于可解释人工智能技术的框架 VR-LENS,用于开发和部署处理虚拟现实引起的眩晕情况检测模型。通过超级学习算法集成,使用 SHapley、Morris、Local Interpretable Model-Agnostic、Partial Dependence Plot 等解释方法识别最具有代表性的特征来重新训练模型,使用整合传感器数据集,我们的模型在分类和回归方面均超过了现有技术。而且,可以将该算法部署在一般 VR 设备上,实现快速检测。
Feb, 2023
通过分析头部运动作为一种新的生理标记来检测 VR 引起的晕动症,该研究使用公开可获得的数据集对头部运动进行了广泛的特征提取,并借助机器学习算法预测晕动症的准确率达到 76% 和精确度达到 83%。
Feb, 2024
该论文提出了一种名为 LiteVR 的可解释人工智能框架,用于检测基于长短期记忆(LSTM)、门控循环单元(GRU)和多层感知机(MLP)的三种模型诉说其结果并减少功能维度和计算成本,其中眼动跟踪功能是检测疾病最为显著的特征。该框架可帮助研究人员和从业人员分析、检测和在独立 VR HMDs 中部署基于 DL 的 cybersickness detection 模型。
Feb, 2023
本文通过评估 VR 病的身体症状水平来解决黑匣子问题,预测和提供 VR 病的主要身体症状的程度,并介绍了一个包括各种帧率,生理信号和主观分数的 360 视频的新的大规模数据集。在 VRSA 基准测试和我们新收集的数据集上,我们的方法表现出不仅可与主观分数实现最高相关性,而且能够更好地理解哪些症状是 VR 病的主要原因。
Apr, 2021
近年来,许多研究人员开始研究虚拟现实(VR)追踪和交互数据在各种机器学习目的中的应用,包括用户识别、预测晕动症和估计学习收益。本文介绍了一项由我们基于 VR 的全尺寸装配模拟测试台(FAST)捕获的新的开放数据集。该数据集包括了来自 108 名参与者(50 名女性,56 名男性,2 名非二元)在 VR 中学习如何组装两个不同的全尺寸结构的数据。除了解释数据集的收集方式和描述包含的数据外,我们还讨论了该数据集如何被未来研究人员使用。
Mar, 2024
描述了一个数据收集活动和由智能手机传感器得出的数据集,该数据集作为包含 45K 多个数据样本的 CSV 文件集合发布,每个样本由 1332 个与物理和虚拟传感器相关的特征组成,包括动作传感器、运行应用、附近设备和天气条件。此外,每个数据样本都与描述用户活动和传感实验中的情境(例如工作、就餐和运动活动)的基本真实标签相关联。为了避免引入数据收集过程中的任何偏差,我们在野外进行了传感实验,即使用志愿者的设备,并且没有限制用户行为。因此,收集的数据集对于定义和评估移动环境中根据用户情境变化调整行为的各种新颖背景感知解决方案(算法和协议)是一个有用的真实数据来源。
Jul, 2023
本研究提供了一个合成的多模态数据集,通过融合来自 3D 虚拟空间模拟器的视频数据与描绘活动时空上下文的知识图谱,该数据集旨在用于社会问题的知识图谱推理挑战(KGRC4SI),重点是识别和解决家庭环境中的危险情况,该数据集对于研究人员和从业者开发创新解决方案,以识别人类行为以提升安全和福祉而言,可作为宝贵的资源对公众开放。
Jan, 2024
本文介绍了一个包含 EEG 信号和其他生理数据的新型驾驶认知负荷评估数据集 CL-Drive,并提供了针对不同的机器学习和深度学习模型的基准分类结果。
Apr, 2023
本文提出了一种新的 VR 视频运动异常的客观评价方法,该方法使用卷积自编码器编码 VR 视频中的运动信息,以测量 VR 视频中异常运动的程度,从而评估 VR 病的程度。
Apr, 2018