盲人高级音频辅助设备
本文旨在开发一种设备,将视觉信息转换为听觉反馈,以协助视障者更好地了解他们的环境,该设备的选择基于准确性和成本方面的考虑,包括时间和功耗等因数,经测试,其在场景理解,包括静态或动态的对象,以及屏幕内容如电视、电脑和手机等方面具有显著的效果。
Jul, 2023
我们正在开发专有的头戴设备,帮助视觉障碍的人们在日常生活中导航、识别物体与人员、阅读文本和避开障碍物。该头戴设备将结合计算机视觉、超声波传感器的距离估计、语音识别和语音助手等技术,实时提供用户所处环境的信息。用户可以通过语音指令与头戴设备交互,例如 “那是什么?” 识别物体,或者 “导航到前门” 寻找方向。然后,头戴设备会口述物体的描述或给出语音导航指示。我们相信,这款头戴设备有潜力为视觉障碍的人们带来巨大改变,让他们能更独立地生活并更全面地参与社会活动。
Nov, 2023
本研究使用 YOLO 模型和 OpenCV 库,利用实时视频检测对象并将图像识别结果以可听形式提供给视觉障碍者,成功实现了优秀的平均准确率 (mAP)。
Dec, 2023
该研究提出两种跨模态感知模型,并提出了面向主要编码方案的两种新型优化策略,结合人类实验结果证实机器模型在提升方案评估效率上是可行的,从而促进编码方案的升级,协助失明患者改善视觉感知能力。
Apr, 2019
本文提出了一种新型电子旅行辅助设备,以仿眼镜的形式在多个方面协助视障人士进行室内出行,采用深度传感器与超声波传感器自动避障的技术来检测障碍并指引方向,结构简单而效率高。
Sep, 2017
本研究提出一种结合图像分析方法和神经语言模型的方法,结合密集字幕技术和一组筛选器生成网络研讨会图像上下文信息,以生成高度可解释且聚焦于相关信息的描述,以应对视觉障碍个体面临的信息获取问题。
Feb, 2022
本文提出了一种使用物体检测和深度感知的辅助系统,可以帮助视障人士在不熟悉的环境中避免撞到物体并导航到目的地。该系统可以检测 90 种不同类型的物体并计算与用户的距离。同时,我们还通过使用 Google Directions API 实现了导航功能,可以轻松地引导视力受损的人到达目的地。
Apr, 2019
本文尝试使用人工智能 / 机器学习应用程序为视力受损人士在埃塞俄比亚的使用货币场景提供解决方案。该移动应用程序可以扫描货币并在 Amharic 语言中告知其类型,旨在减轻埃塞俄比亚视力障碍人士的负担。该模型在数据集上实现了 98.9%的分类准确率。
Aug, 2022