2019年智能手机上深度学习的AI基准测试
介绍了一个基于GPU加速的开源库CNNdroid,可以在Android设备上执行训练好的深度卷积神经网络,并实现了高达60倍的加速和130倍的能量节省。
Nov, 2015
通过对ARMv7设备上现代深度学习工作负载所需的核心基本操作进行开源实现和全面分析,我们展示了与现有市场上的float32和int8基准相比,使用大于4位精度的最先进的超低精度技术可获得4倍至20倍的加速度。
Dec, 2017
本文研究了Android生态系统中深度学习的现状及其在智能手机上的限制,同时概述了四个主要移动芯片平台(Qualcomm、HiSilicon、MediaTek和Samsung)上可用的硬件加速资源,并介绍了利用AI基准测试收集的不同移动SoCs的实际性能结果。
Oct, 2018
本文介绍了如何利用手机上普遍存在的GPU加速器,在Android和iOS设备上实现深度神经网络的实时推断,并将其集成到开源项目TensorFlow Lite中。
Jul, 2019
提出了首个Mobile AI挑战,其目标是开发一种端到端基于深度学习的视频超分辨率解决方案,能够在移动GPU上实现实时性能,为此,提供了REDS数据集并使用Snapdragon 865 SoC加速浮点网络的Adreno GPU对所有模型的运行时进行了评估。
May, 2021
本文概述了高效深度学习的方法、系统和应用,包括流行的模型压缩方法、自动化模型设计和用户自定义的基于设备的训练,以及各种针对特定任务和空间-时间冗余的加速技术和系统设计。
Apr, 2022
本研究比较探讨了卷积神经网络加速引擎对于边缘计算的可持续性及其对推理和在线训练的影响,特别关注了处理内存、移动GPU加速器和新型Racetrack存储器的使用。研究表明,采用更加可持续的处理器内存和移动GPU加速器可以有效减少计算的能源占用率。
Jul, 2022
本研究对商业AI / ML加速器进行了初步评估和比较,通过对常见DNN运算符和其他AI / ML工作负载的一系列基准评估,揭示了数据流架构相对传统处理器设计的优势和性能权衡,并为研究原型的设计和性能期望提供了有价值的参考,从而促进为不断发展的AI / ML应用领域量身定制的下一代硬件加速器的发展。
Nov, 2023
在资源受限的移动设备上部署计算密集型的深度学习模型以实现实时智能应用的需求与日俱增,在各种处理单元(如CPU、GPU和NPU)的支持下,移动设备有潜力通过在异构处理器之间进行并行执行来加速深度学习推理。本文通过精心设计的实验,涵盖了各种深度学习模型、移动软件/硬件环境、工作负载模式和资源可用性,综合性地评估了在异构移动处理器上进行并行深度学习推理的能力和挑战,并确定了现有技术的局限性,并强调了跨层级优化的机会。
May, 2024