成本感知连续学习中的快速上下文适应
本文介绍了动态平衡策略,旨在在云端和边缘节点之间进行数据交换并学习最有效的资源管理策略,以最大程度地减少学习过程的开销,同时尽可能地提高用户的服务质量。
Nov, 2022
本文提出了一种在动态环境中实现数据驱动方法持续学习和优化的方法,通过将持续学习(CL)概念融入到无线系统学习的建模过程中,使学习模型不断适应新的情境,同时不忘记从前几次情境中学习的知识,并针对两种流行的基于深度神经网络的模型进行定制。数值结果表明,所提出的 CL 方法不仅能够迅速而无缝地适应新场景,而且在先前遇到的场景中保持高性能。
Nov, 2020
本文提出了一种分布式的深度强化学习资源分配技术,针对协作无线电网络所呈现的多智能体环境及其强化学习过程中可能导致的非平稳环境,通过考虑深度强化学习的特定方面,本文的算法能够迭代地收敛于一个平衡政策,其可用于无需与其他代理协调配合的情况下工作。仿真结果表明,与等效的基于 Q 表的 Q 学习算法相比,所提出的技术具有更快的学习性能,并能够在足够长的学习时间内在 99% 的情况下找到最优策略。此外,对于与等效的基于表格的实现相比,仿真结果显示出我们的 DQL 方法只需要不到一半的学习步骤才能实现相同的性能。此外,证明了在未协调交互的多无线电情景中使用标准的单智能体深度强化学习方法可能无法收敛。
May, 2022
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
本文提出了一种基于深度学习的资源分配策略,通过优化带宽和传输功率来最小化基站的总功耗,并使用级联结构的神经网络和深度迁移学习来应对无线网络中的非平稳性。实验结果表明,相对于全连接神经网络,在 QoS 保证方面,级联神经网络的性能更好。
Mar, 2020
基于容器虚拟化的云原生无线网络架构,应用深度强化学习算法来监控网络状态和动态分配资源,优化了网络分片和多接入边缘计算等场景的资源分配,大幅提高了网络效率。
May, 2023
本文提出两种基于 actor-critic 学习的技术来优化资源分配功能的位置以及资源分配决策,并研究了增强学习资源分配在可观测性方面对性能的影响,实验表明,在动态地网络功能(NF)根据服务要求进行重新定位时,使用强化学习技术能够获得延迟和吞吐量的提高。
Oct, 2021
采用深度强化学习方法,通过图神经网络模型实现网络资源的分配,该方法比现有的最佳启发式算法达到更高的接受率;即使在未适当训练的情况下,可以在规模比训练时大 $10^2$ 倍的数据中心网络中保持高性能。
Oct, 2022
提出基于深度强化学习 (DRL) 的联合模式选择和资源管理方法,使用智能决策优化 C-RAN 和 D2D 模式下的无线和计算资源,旨在通过边缘缓存状态的动态优化长期减少系统能耗。在模拟中,将学习率和边缘缓存服务能力等参数的影响演示出来,并将该方案与其他不同的方案进行对比展示其有效性,并将迁移学习与 DRL 整合以加速学习过程。
Sep, 2018
本研究提出了一个基于深度学习的资源分配算法(ALCOR),该算法允许用户根据应用层进行自由调整,并使用深度神经网络作为策略来解决时分共享问题中的用户效用需求最大化的优化问题。对 ALCOR 进行的收敛性分析和数值实验验证了其有效性。
Nov, 2023