使用大型语言模型复现网络研究结果的探索
通过回顾现有工作,我们按类别介绍了应用语言模型于网络领域的突出成果,并详细解释它们在工作流程的不同阶段的操作方式。此外,我们深入探讨了遇到的挑战,讨论了潜在解决方案,并勾勒了未来的研究前景。我们希望这份调查能为研究人员和实践者提供洞见,推动该跨学科研究领域的发展。
Apr, 2024
利用大语言模型从自然语言查询生成任务特定代码的一种新方法,解决了网络管理中的可解释性、可扩展性和隐私问题,并且展示了高准确性、成本效益和进一步增强的潜力。
Aug, 2023
利用大型语言模型 (LLM) 的适应性,以提供更好的性能和更强的泛化能力,本文首次研究了将 LLM 应用于网络的可持续设计理念,通过 NetLLM 框架实现了高效的 LLM 适应网络问题,并展示了它在不同网络任务中的有效性。
Feb, 2024
在大型语言模型(LLMs)中,介绍了 “社交学习” 的框架,其中模型通过自然语言以隐私保护的方式共享知识。我们提出并评估了两种 LLMs 之间的知识传递方法,第一种情景中,模型生成抽象提示用于教授任务,而我们的第二种方法中,模型通过生成合成示例来传递知识。我们在多个数据集上评估了这些方法,并以记忆作为隐私损失的代理进行了量化。这些受社交学习启发的技术得到了有希望的结果,原始数据的记忆化较低。特别是,我们表明使用这些方法的性能与使用原始标签和提示的结果相当。我们的工作证明了社交学习在 LLMs 中的可行性,建立了基础方法,并突出了几个尚未开发的领域的重要性。
Dec, 2023
社交网络数据的广泛增长为人类行为的广泛数据驱动型探索开辟了前所未有的机遇。然而,建模大规模社交网络数据面临计算挑战。为了应对这些挑战,我们提出了一种专门用于建模社交网络数据的创新方法,并结合了大型语言模型的功能。我们在七个真实世界的社交网络数据集上进行了彻底评估,并展示了其在计算社会科学研究中的适用性。
Dec, 2023
通过系统评估选择的大型语言模型(LLMs)在网络运维(NetOps)领域的能力、优势和局限性,本研究发现只有 GPT-4 能够达到与人类通过网络运维认证考试的高精度等级。
Sep, 2023
本研究探讨了在社会科学中使用开放生成的大型语言模型(LLMs)进行注释任务的用途。研究强调了专有模型所面临的限制再现性和隐私问题,并主张采用可在独立设备上运行的开放(源)模型。提供了推文情感分析和童年志向性散文中休闲活动的识别两个注释任务的示例。研究评估了不同的提示策略和模型(neural-chat-7b-v3-2,Starling-LM-7B-alpha,openchat_3.5,zephyr-7b-alpha 和 zephyr-7b-beta)的性能。结果表明需要仔细验证和定制提示工程。研究强调了开放模型在数据隐私和再现性方面的优势。
Dec, 2023
基于大型语言模型(LLM)开发在线社交网络的应用程序是具有挑战性的,并且在研究界中报道相对较少。本研究将 LLM 应用程序分为三类:知识任务、娱乐任务和基础任务,并提供了相应的挑战、解决方案和经验教训。据我们所知,这是第一篇关于将 LLM 应用于社交网络开发的综合性论文。
Jan, 2024
利用大型语言模型(LLMs)为六代(6G)无线通信技术引入一种基于强化学习的新框架,该框架在都市环境中通过训练 RL 代理并结合卷积神经网络(CNNs)利用 LLMs 的优势以及减轻其限制,在优化区域覆盖范围的网络部署中表现出色。
May, 2024