- 弱连接连续动作马尔可夫决策过程的深度强化学习
该论文介绍了用于弱耦合 MDP 问题和连续动作空间的 Lagrange 策略 (LPCA) 一种强化学习算法,它通过在神经网络框架中引入弱耦合 MDP 问题的 Lagrange 松弛来解决依赖于连续动作的资源约束挑战,并有效地解耦了 MDP - 量子视觉变压器用于夸克胶子分类
提出了一种混合量子 - 经典视觉转换器架构,其特点是在注意机制和多层感知机中集成了变分量子电路。该研究解决了计算效率和资源限制在分析未来的高亮度大型强子对撞机数据方面的重要挑战,提出了该架构作为潜在解决方案。通过将该模型应用于 CMS 开放 - LAECIPS: 基于大型视觉模型辅助的适应性边缘云协作技术在物联网感知系统中的应用
基于 LAECIPS 的云边协作方法在 IoT 环境中通过大型云模型和轻量级边缘模型的协同推理实现了高准确性和低延迟,并适应了动态数据漂移的需求。
- MISS:基于视觉归纳先验流传播的内存高效实例分割框架
通过将视觉先验知识与训练数据集相结合,MISS(Memory-efficient Instance Segmentation System)框架在数据稀缺和内存限制的情况下展现出出色的性能。
- 具有资源约束的最佳臂识别
在资源约束下,通过资源消耗来识别最佳模式的 Best Arm Identification 问题中,我们设计并分析了基于资源分配的逐步减半算法 (SH-RR),它在成功识别最佳模式的概率方面实现了接近最优的非渐进收敛速度;有趣的是,我们在确 - 在约束马尔可夫决策过程中实现 $\tilde {O}(1/ε)$ 的样本复杂性
我们研究了强化学习问题中的约束马尔可夫决策过程(CMDP),并通过优化算法对 CMDP 问题的样本复杂度提出了改进,实现了优化的问题相关保证。
- 面向多任务学习的原则性任务分组
本研究提出一种新方法来进行多任务学习中的任务分组,弥补了现有方法的关键理论和实践限制。与以前的研究不同,我们的方法提供了一个更具理论基础的方法,不依赖于构建转移增益的限制性假设。同时,我们还提出了一种灵活的数学规划方法,可以适应广泛的资源约 - 组合式客户端 - 主节点多智能体深度强化学习在移动边缘计算中的任务卸载
近年来,移动应用程序的爆发性增长引起了人们的关注,但用户设备在处理计算需求方面存在局限性。移动边缘计算作为应对用户设备不断增长的计算需求的一项有前途的技术,通过在用户设备和移动边缘计算服务器之间分配任务来满足用户设备的需求。深度强化学习在任 - 作为学习基因的线性扩展的变压器
扩展共享 Transformer 模块以生成和初始化具有不同深度的 Transformer,以适应动态资源约束。
- 异构环境中加速联邦学习:一种动态分层方法
动态分层联邦学习系统可以通过利用分层学习的概念,将全局模型的不同部分分配给不同层次的客户端,并通过基于本地损失的训练使每个客户端可以并行更新模型,从而减少资源受限设备上计算和通信的需求,缓解迟到问题,从而显著减少训练时间并保持模型准确性。
- 值得信赖的边缘机器学习:一项调查
边缘机器学习与可信边缘机器学习(EML)的融合是一个备受关注的研究领域,通过利用分布式网络资源以合作方式进行联合训练和推理。然而,EML 面临着多种挑战,包括资源限制、异构网络环境和不同应用的多样化服务要求,这些都影响了 EML 在利益相关 - 探索无服务器计算对点对点训练机器学习的影响
通过将无服务器计算与点对点网络相结合,提出了一种在资源限制下实现高效并行梯度计算的新型架构,相比传统的点对点分布式训练方法,在梯度计算时间上取得了显著提升,同时也引入了更高的成本。
- 通过层次训练和深度丢弃解决资源受限条件下的联邦学习
大型机器学习模型通过联合学习和层级学习以解决资源限制问题,并在边缘设备上有效地训练更大型的模型,同时保持与传统联合学习相当的性能。
- 资源约束下的处方流程监控:一种强化学习方法
本文提出了一种使用强化学习方法和符合预测技术的过程监控方法,以考虑干预决策基于预测的不确定性和资源利用级别的不确定性来避免资源浪费和提高干预效果。
- QBitOpt:训练过程中快速准确的位宽重新分配
提出了一种名为 QBitOpt 的算法,通过量化感知训练(QAT)期间更新比特宽度,将位宽分配问题转化为约束优化问题,利用快速计算的灵敏度和高效求解器,生成满足严格资源约束的高性能任务的混合精度网络。在常见的位宽约束下,在 ImageNet - GPT4 对同行评审辅助略有帮助:一项试点研究
本研究旨在探究利用 GPT4 模型协助同行评审过程的可行性,并发现人工智能可以对同行评审过程做出有效的贡献,为解决同行评审中资源限制问题提供了新途径。
- 通过连续的层次训练,在计算受限设备上聚合联邦学习的容量
介绍了一种新的方法,即对联合学习模型的参数进行连续冻结和训练,以减少设备上的训练资源需求,同时仍允许足够的参数协同适应度,大大提高了训练模型的准确性和分布式设备的计算能力的高效汇集。
- ICML基于稀疏模型自适应的高效个性化联邦学习
提出一种名为 pFedGate 的方法,通过自适应和高效地学习稀疏本地模型来实现高效个性化联邦学习,并通过轻量级可训练的门控层使客户端生成不同的稀疏模型,同时考虑到异构的数据分布和资源限制,实现了计算和通信的效率提高,理论上的收敛性和泛化误 - 高效流式学习
本文介绍了基于数据流的机器学习的概念,提出了流式高效学习的概念,通过初步理论框架的介绍,探讨了在资源受限和时间要求的情况下,如何处理收到的数据以提高学习性能。
- 在资源受限嵌入式设备中部署 BERT NLP 模型的挑战探索
通过对 BERT-based 模型在不同资源限制和准确度预算下的实证研究,发现一个最优资源和准确度平衡点,帮助设计者在替代的 BERT-based 架构中做出明智的选择,节省显著的开发时间和精力。