AI 本地化互联框架用于集成 6G 系统中的大语言模型技术
通过将大型语言模型(LLMs)与机器学习(ML)模型相结合,我们提出了 “生成式 AI 在环” 的概念,利用 LLMs 的语义理解、上下文感知和推理能力来辅助人类处理移动通信网络中的复杂或意外情况,并通过合成数据来增强基于 ML 的网络入侵检测,这进一步展示出我们提出的想法的优势。
Jun, 2024
这篇论文讲述了将机器学习和人工智能整合到第五代(5G)网络中,揭示了网络智能的局限性,以及当前和下一代设备对网络智能的越来越苛刻的要求。本文提出了为 5G 和下一代基于意图的网络开发定制的大型语言模型(LLM),并提供了对未来 LLM 发展和集成的见解,以实现全自动网络智能的端到端意图型网络。
Mar, 2024
本文介绍了如何使用 Fine-tune 调整预训练语言模型,例如 BERT、RoBERTa 和 GPT-2,来识别电信领域的文档中的工作组标准,其准确率可达 84.6%。
Jun, 2023
AI 领域近年来取得了显著的进展,尤其是基于变压器架构的强大大型语言模型(LLMs)的出现。本文介绍了一种创新的 LLM 推理方法,展望了在无需网络连接的情况下,拥有数十亿参数的 LLMs 可以直接在移动设备上执行的未来。该应用程序不仅作为一个通用助手,而且通过原生代码和模型量化技术的结合,还可以实现与文本到动作功能的无缝移动交互。文章还提供了关于本地 LLM 推理的训练流程、实现细节、测试结果和未来方向的见解。这一突破性技术为用户提供了强大的人工智能能力,同时保护了用户的隐私并消除了延迟问题。
Sep, 2023
本篇文章提出了一种基于协作的云边协同方法,称为 NetGPT,它能够有效地编排异构分布式通信和计算资源,并应用于提供个性化的生成服务,使用代表性的开源 LLMs(例如 GPT-2-basic 和 LLaMA 模型)的可行性,重点强调了用于实现本机 AI 网络体系结构的实质性变化,并演示了 NetGPT 的几个副产品优势。
Jul, 2023
基于 Transformer 架构的大型语言模型(LLMs)的近期进展在自然语言处理(NLP)应用领域展示了显著的拓宽范围,超越了其在聊天机器人技术中的初始应用。本文探究了这些模型的多方面应用,重点关注 GPT 系列,对人工智能(AI)驱动工具在改变编码、问题解决等传统任务上起到的转变性影响进行了研究,同时开辟了在不同行业中进行研究和开发的新方向。从代码解释和图像描述到便于构建交互式系统和推动计算领域的发展,Transformer 模型展示了深度学习、数据分析和神经网络设计相结合的协同作用。本调查报告深入了解了 Transformer 模型的最新研究,突出了其多功能性和在实际应用领域中转型的潜力,从而为读者提供了对 Transformer-based LLMs 在当前和未来实际应用领域的全面理解。
Mar, 2024
无线网络的演变趋势是朝着连接智能化发展,边缘人工智能作为一种有前景的解决方案,通过在网络边缘提供高质量、低延迟和保护隐私的人工智能服务来实现连接智能化。本文介绍了一种自主边缘人工智能系统,它自动组织、自适应并优化自身以满足用户的多样化需求。该系统采用云 - 边缘 - 客户端分层架构,其中大型语言模型(即 GPT)位于云端,其他人工智能模型则共同部署在设备和边缘服务器上。通过利用 GPT 在语言理解、规划和代码生成方面的强大能力,我们提出了一种多功能框架,它能够高效协调边缘人工智能模型以满足用户的个性化需求,同时通过边缘联合学习自动生成训练新模型的代码。实验结果表明,该系统具有精确理解用户需求、以最小成本高效执行人工智能模型以及通过联邦学习有效创建高性能人工智能模型的非凡能力。
Jul, 2023
利用移动设备和边缘服务器之间的协作,我们提出了一个用于 6G 网络中的 LLM 代理的分裂学习系统,其中具有不同角色的多个 LLM 代理分布在移动设备和边缘服务器上以协同执行用户代理交互任务。此外,我们引入了一种新颖的模型缓存算法,以提高上下文中的模型利用率,从而降低协作移动和边缘 LLM 代理的网络成本。
Jan, 2024
使用预训练 LLM 强化框架进行完全自动化网络入侵检测,通过在真实网络入侵检测数据集上进行实验,证明了在上下文学习方面的优势,可以在无需进一步训练或微调 LLMs 的情况下改善任务处理性能,GPT-4 的测试准确性和 F1 分数可以提高约 90%。此外,预训练 LLMs 在执行无线通信相关任务方面表现出巨大潜力,通过仅使用 10 个上下文学习示例,提出的框架可以在不同类型攻击中达到超过 95% 的准确性和 F1 分数。
May, 2024