CoCoPIE XGen:一种面向全栈的 AI 优化框架
通过压缩 - 编译器共同设计可以在主流的移动设备上实现实时人工智能,而无需专用硬件支持。CoCoPIE 是一个支持所有主要 DNN 类型的框架,包括 CNN,RNN,转换器,语言模型等等,并且能够在现成的移动设备上运行许多典型的 AI 应用程序。在能源效率和性能方面,Off-the-shelf 移动设备也能胜过一些典型的 ASIC 和 FPGA 硬件解决方案。
Mar, 2020
提出了 Edgent,这是一种协作和按需的 DNN 合作推理框架,其旨在通过在设备和边缘之间自适应地分配 DNN 计算来提高实时 DNN 推理的性能,并通过在适当的中间 DNN 层进行早期退出来加速 DNN 推理。
Jun, 2018
该论文提出了一种基于边缘计算的 DNN 协同推理框架 Edgent,通过 DNN 分区和权衡设备的云资源和临近边缘资源来协调实时的 DNN 推理,进而降低计算延迟,实现低延迟边缘智能处理。
Oct, 2019
本文概述了生成人工智能和边缘云计算的最新发展,并利用两个示例应用程序讨论了使用边缘云协作系统扩大其解决方案的技术挑战。最后,我们列出了在规模上训练和部署 GenAI 系统的设计注意事项,并指出了未来的研究方向。
Jun, 2023
本研究提出一种名为 CoEdge 的分布式深度神经网络计算系统,优化了边缘设备的计算和通信资源,在许多共同参与的异构边缘设备上进行协同深度神经网络计算,与现有方法相比,CoEdge 在降低能耗方面更具优势。
Dec, 2020
GCoDE 是第一个自动化的图神经网络(GNN)框架,它在设备边缘层次结构上创新地共同设计了架构搜索和每个操作的映射,通过性能意识的方法实现了在多样化的异构系统中的架构效率的有效评估,实验结果表明,与现有方法相比,在各种应用和系统配置中,GCoDE 可以实现高达 44.9 倍的加速和 98.2% 的能量节约。
Apr, 2024
在本研究中,我们提出了一种名为 CoDE 的新算法,它能够协同处理深度神经网络模型,从而实现低延迟的边缘 AI 服务。通过利用自身和其他模型的参数,DNN 模型可以创建新的推理路径,从而降低本地计算负荷,同时只对精度产生最多 2% 的影响。在重负载条件下,CoDE 可以进一步减少推理时间 30%,而精度仅下降 4%。
Jan, 2024
提出了一种基于 Deep Neural Network(DNN)模型的 IoT 设备与边缘协同计算框架,通过多分支结构、智能早停、硬件中间分割与整数量化等技术实现了优秀的通信负载和执行精度平衡,结合基于 Soft Actor Critic(SAC-d)的深度强化学习优化算法实现了动态无线通道和任意 CPU 处理下的适应性支持,并在树莓派 4 和 PC 上进行了实验。
Jan, 2022
生成人工智能在设计领域展示了巨大的潜力,但由于资源需求大,通常在大型计算基础设施上进行训练并作为云服务提供。在这篇立场论文中,我们考虑了在资源受限环境中进行生成人工智能设计的潜力、挑战和有希望的方法。这需要在模型压缩、高效算法设计和可能利用边缘计算方面创新,以使生成人工智能在低资源环境中高效运行。这些努力可以使先进技术普及,并促进可持续发展,确保普遍可及性和对人工智能驱动设计效益的环境考虑。
Feb, 2024