提高分区边缘学习效率的联合参数和带宽分配
为了克服 6G 移动网络中多设备上同时下载不同和高维模型的通信瓶颈,我们提出了模型广播和装配(MBA)框架,通过参数广播减少通信开销和下载延迟,同时提供设备的模型性能保证。与传统模型下载相比,所提出的 MBA 框架在下载延迟方面取得了显著的减少。
Jul, 2023
本文研究了多流协同智能系统中特征编码的位分配问题,并提供了单任务系统和多任务系统的闭式位分配解,以及二流 k 任务系统全帕累托集的解析特征和三流 2 任务系统帕累托集的界限。
Sep, 2020
本文研究了联邦边缘学习系统,旨在通过协调边缘设备共同训练机器学习模型,以提高系统能效。同时,利用联合通信和计算设计优化边缘设备传输协议,通过最小化边缘设备上传机器学习模型参数时的总能耗,提高系统能效。作者提出了一种有效的算法来优化能量下降问题。数值结果显示,相对于其他基准方案,作者提出的联合通信和计算设计可以显著提高联邦边缘学习系统的能效。
Feb, 2020
本论文旨在为在具有异构计算和通信能力的无线边缘节点上实现具有性能保证的逼真分布式学习算法建立新的优化范例,并考虑了 MEL 的动态任务分配问题,以最大化学习准确性,同时保证在预设时间内,异构通道上数据分布 / 聚合的总时间和异构节点上的局部计算迭代次数被限制。通过比较这些提议解决方案的性能与数值方法和等任务分配方法,展示了这些提议解决方案的优点。
Nov, 2018
本文主要研究在边缘计算环境中使用分布式梯度下降学习模型参数的问题,提出控制算法以最小化给定资源预算下的损失函数,并通过真实数据集的大量实验评估算法性能。
Apr, 2018
本研究提出一种基于上下文的在线算法,称为 COERR,用于边缘资源租赁问题,以在预算有限的情况下最大化 ASP 的效用,并通过一系列实验检验了其可行性。
Mar, 2019
在边缘学习系统中,本文研究了双阶段学习中的联合通信和计算资源管理问题,分析了系统参数对收敛速率的影响,并提出了一个联合资源管理设计来优化系统性能。该设计充分利用了预训练和微调之间的固有权衡,有效地优化整体系统性能。
Apr, 2024
通过在多智能体协作中引入 Partner-Aware 策略,我们提出了一种去中心化的多臂赌博问题并进行了分析,理论和实验表明该策略实现了对数遗憾,并且能够在人工智能和人机合作中获得较好的表现。
Oct, 2021
该论文提出了一种基于图分割的分布式计算算法,其可以有效降低数据分布式处理过程中的通信成本,实验结果表明该算法能够在机器学习系统中实现 1.6 倍的加速,并且消除 90%的网络通信。
May, 2015
提出 ADSP 参数同步方案,解决了分布式机器学习中参数同步与边缘设备的异构性问题,通过策略性地决定每个工作节点提交模型更新的时间点,不仅确保了全局模型收敛,而且加快了收敛速度。
Nov, 2019