大型语言模型网络适应
通过回顾现有工作,我们按类别介绍了应用语言模型于网络领域的突出成果,并详细解释它们在工作流程的不同阶段的操作方式。此外,我们深入探讨了遇到的挑战,讨论了潜在解决方案,并勾勒了未来的研究前景。我们希望这份调查能为研究人员和实践者提供洞见,推动该跨学科研究领域的发展。
Apr, 2024
利用大型语言模型(LLMs)为六代(6G)无线通信技术引入一种基于强化学习的新框架,该框架在都市环境中通过训练 RL 代理并结合卷积神经网络(CNNs)利用 LLMs 的优势以及减轻其限制,在优化区域覆盖范围的网络部署中表现出色。
May, 2024
提出了一种以 GPT 为基础的光网络框架,通过部署在控制层的智能代理实现对物理层的智能控制和与应用层的高效交互。框架通过用户输入和精心制作的提示来从光网络专业领域的全面资源库中提取领域知识,并生成控制指令和结果表示,以实现在光网络的自主运行和维护。研究还详细描述了进行提示工程、建立领域知识库和执行复杂任务的方法,然后在网络告警分析和网络性能优化这两个典型任务上对所提出的框架进行了验证,2,400 个测试情境的响应准确率和语义相似性显示了 GPT 在光网络中巨大的潜力。
May, 2024
大型语言模型 (LLMs) 在最近因其出色的理解和推理能力而受到了广泛关注,取得了许多领域的巨大进展。LLM 技术的进步也为电信领域的许多任务自动化提供了有希望的机会。本工作旨在提供 LLM-enabled 电信网络的全面概述,介绍了 LLM 的基本原理、关键技术和电信应用,并给出了未来发展方向。
May, 2024
本研究探讨了大型语言模型在成本高效的推理和微调方面的方法,并比较了本地和分布式策略。我们开发了特殊的容错推理算法和负载平衡协议,用于自动分配设备以最大化系统总吞吐量,并展示了这些算法在 Petals 中的应用,该分散式系统能够以比离线处理快 10 倍的速度运行大型语言模型。我们通过模拟条件和跨越两大洲的真实场景对系统性能进行了评估。
Dec, 2023
基于大型语言模型(LLM)开发在线社交网络的应用程序是具有挑战性的,并且在研究界中报道相对较少。本研究将 LLM 应用程序分为三类:知识任务、娱乐任务和基础任务,并提供了相应的挑战、解决方案和经验教训。据我们所知,这是第一篇关于将 LLM 应用于社交网络开发的综合性论文。
Jan, 2024
利用大语言模型从自然语言查询生成任务特定代码的一种新方法,解决了网络管理中的可解释性、可扩展性和隐私问题,并且展示了高准确性、成本效益和进一步增强的潜力。
Aug, 2023
通过系统评估选择的大型语言模型(LLMs)在网络运维(NetOps)领域的能力、优势和局限性,本研究发现只有 GPT-4 能够达到与人类通过网络运维认证考试的高精度等级。
Sep, 2023
RLAdapter 通过引入一个适配器模型,在强化学习和大型语言模型之间建立更好的联系,通过在 RL 代理的训练过程中生成的信息来微调轻量级语言模型,从而在适应下游任务方面提供更好的指导,并在 Crafter 环境中实验表明 RLAdapter 超过了基线模型,且我们的框架下的代理展现出了常识行为。
Sep, 2023
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为一个更小、更高效且准确的神经网络,以实现在资源受限设备上部署这些模型的挑战。我们的方法包括使用 LLM 的预测概率训练较小的学生模型,作为教师模型,通过专门设计的损失函数来学习 LLM 的输出概率,确保学生模型能够准确模仿教师模型的性能。通过对包括 6,684 个学生撰写的科学问题回答及其他数据集的测试,我们将性能与原始神经网络(NN)模型进行了比较,结果显示对于 7T 数据集,NN 模型和提炼的学生模型的准确率与教师模型相当;然而,其他数据集显示 NN 模型的准确率显著较低(平均 28%),然而我们的提炼模型仍然能够比 NN 模型获得更高 12% 的准确率。此外,学生模型的参数大小为 0.1M 至 0.02M,相较于原始输出模型大小减小了 100 倍和 10 倍。该研究的重要性在于其为自动评分在典型教育环境中的运用提供了潜力。
Dec, 2023