Seer:数据分析赋能软件定义网络
本文介绍了在IoT领域中使用深度学习技术进行分析和学习的综述,包括IoT数据的特征和处理方法,以及深度学习算法及其在IoT领域中的应用和挑战,同时讨论了智能IoT设备背景下应用深度学习的实现方法,以及在雾计算和云中心的运用。
Dec, 2017
本研究介绍了BigDL,一种基于Apache Spark的分布式深度学习框架,它支持在生产数据平台上构建深度学习应用程序、直接处理生产数据,并作为端到端数据分析流水线的一部分进行部署和管理,实现了在Spark的功能计算模型上的分布式数据并行训练。此外,我们还分享了BigDL的用户如何应对挑战,如何简化端到端数据分析和深度学习流水线的搭建和部署。
Apr, 2018
这篇论文提出了一种基于图神经网络(GNN)的网络模型RouteNet,该模型通过学习和建模图结构信息,理解拓扑、路由和输入流量之间的复杂关系,从而准确预测网络中的表现指标,并且可以泛化到任意拓扑、路由和流量强度,可以应用于路由优化和网络规划等多个领域。
Oct, 2019
本文探讨了 O-RAN 联盟提出的解聚的网络架构是否为 NextG 网络的关键要素,并在此框架下研究了数据驱动优化方法的潜力、挑战和局限性,以及实现自主和自优化网络愿景的深度强化学习智能体通过实时分析与控制的闭环集成的可行性。
Dec, 2020
本文提出并原型描述了一种基于Open RAN范例的新型编排框架OrchestRAN,旨在通过自动计算最优数据驱动算法和其执行位置,实现网络智能控制和推理目标,以应对下一代软件化、开放式、分解式网络架构面临的挑战。在Colosseum平台上的实验结果表明,OrchestRAN能够以最小的控制开销和延迟按需实例化数据驱动服务。
Jan, 2022
本文中,作者将功能性的5G Core Network Data Analytics Function(NWDAF)应用于基于开源软件的5G网络,从而通过智能分析和处理方法来提供支持高数据速率,低延迟和可靠性要求的5G网络。文章提出了一种基于数据收集和分析的方法,能从收集的网络数据中获取有价值的信息。此外,作者还提出了NWDAF的用途和应用,并讨论了5G网络的一些限制和6G网络的发展前景。
May, 2022
本研究介绍了 Traffic Analytics Development Kits (TADK) 的设计,是一个行业标准的、针对基于 AI 的网络工作负载处理的框架,可以在网络设备中提供实时的 AI 网络工作负载处理,无需专门的硬件。通过部署TADK在WAF和5G UPF以上,评估结果显示,在流量特征提取方面,可以实现每个核心高达35.3Gbps的吞吐量,流量分类方面可以实现每个核心6.5Gbps的吞吐量,且可以将SQLi/XSS检测时间降低到每个请求4.5us,并具有比固定模式解决方案更高的准确性。
Aug, 2022
本研究采用基于离散事件系统规范的 IoT 模型,包括 IoT 设备到边缘数据中心的处理单元的 entire architecture 描述,并考虑用户设备、网络和计算基础设施的定位感知,以优化管理 IoT 数据流分析应用程序的联合资源,提高其时延和能源效率,通过真实痕迹和数据的驾驶辅助用例证明了我们的贡献。
May, 2023
Karasu是一种更高效的资源配置剖析方法,通过促进类似基础设施、框架、算法或数据集的用户之间的数据共享,训练轻量级性能模型并将它们组合成一个集成方法,以开发配置搜索空间中固有的知识,同时优化多个目标,从而显著提升现有方法在性能、搜索时间和成本方面的表现。
Aug, 2023
通过引入5G模块化网络功能和分布式结构,我们提出了一种分层网络数据分析框架(H-NDAF),以解决在增加的分析请求中,传统网络数据分析功能不能及时提供准确结果的问题。通过广泛的仿真结果,在开源软件(free5GC)中证明了H-NDAF相对于传统NWDAF可以提供更准确和更快速的分析结果。
Sep, 2023