为大语言模型构建安全可靠的6G路径:攻击、防御与机遇
大型语言模型的部署面临一些挑战,云部署方式会有长时间响应、高带宽成本和数据隐私问题。文章探讨了在6G边缘部署语言模型的潜力,介绍了多模态语言模型的关键应用,并提出了6G移动边缘计算的架构。此外,讨论了边缘训练和边缘推理的设计方面,提出了一些有效的技术以促进语言模型的高效部署。
Sep, 2023
给出了当前针对大型语言模型(LLMs)的隐私攻击的全面分析,并对其进行了分类,同时提供了用于对抗这些隐私攻击的重要防御策略,并指出了LLMs发展中可能出现的新的隐私问题和未来的研究方向。
Oct, 2023
通过针对大型语言模型(LLM)存在的安全风险进行评估,本研究填补了当前研究的空白,并提出了一种基于提示的攻击风险分类方法,以强调LLM在用户-模型通信路径上的安全风险。该分类方法通过具体的攻击示例加以支持,并旨在为安全性强、值得信赖的LLM应用程序的开发提供指导。
Nov, 2023
本文提出了一种系统评估LLM集成系统中机密性的方法,通过形式化“秘密密钥”游戏来比较模型的脆弱性和不同防御策略的有效性,发现当前的防御策略在攻击策略方面缺乏泛化能力,并提出了一种受对抗训练启发的鲁棒性微调方法,有效降低了攻击成功率并提高了系统对未知攻击的弹性。
Feb, 2024
在本文中,我们系统地分析了LLM系统的安全性,通过建立信息流及其在LLM内部和LLM与其他对象之间的一致性约束,将LLM系统的攻击面分解为三个关键部分:多层安全分析,约束存在性分析和这些约束的鲁棒性分析。通过对最新的LLM系统OpenAI GPT4的多层和多步骤分析,我们发现了不仅仅存在于LLM模型本身,还包括与其他组件整合的安全问题。我们发现尽管OpenAI GPT4已经设计了多重安全约束来提高其安全性,但这些安全约束仍然容易受到攻击。为了进一步展示我们发现的漏洞的现实威胁,我们构建了一个端到端攻击,黑客可以非法获取用户的聊天历史,而无需操纵用户的输入或直接访问OpenAI GPT4。
Feb, 2024
通过综述各种在大型语言模型上攻击的形式及机制,以及其潜在影响和当前的防御策略,该论文探讨了大型语言模型的安全性和脆弱性方面的问题。研究主题包括旨在操纵模型输出的对抗性攻击、影响模型训练的数据污染,以及与训练数据利用相关的隐私问题。论文还探讨了不同攻击方法的有效性、大型语言模型对这些攻击的弹性以及对模型完整性和用户信任的影响。通过研究最新的研究成果,提供对大型语言模型的脆弱性和防御机制的深入了解,旨在引起人工智能社区的关注,并激发切实解决这些风险的方法。
Mar, 2024
本研究聚焦大型语言模型(LLMs)在安全性和可靠性方面的挑战,分析了现有的脆弱性和威胁模型。通过审查攻击机制和防御策略的现状,本文识别了研究中的空白,并提出了未来的研究方向,以推动LLM安全性的提升。
Sep, 2024
本研究针对大型语言模型(LLMs)所面临的安全性和可靠性问题进行了综述,特别是现有脆弱性和新兴威胁模型。通过分析攻击机制和当前防御策略的优缺点,识别研究空白,并提出未来加强LLM安全性的方向,旨在提升对其安全挑战的理解,促进更稳健的安全措施的发展。
Sep, 2024
本研究解决了大规模语言模型(LLMs)在成员推断攻击中的隐私风险,现有方法依赖多次训练计算开销大的影子模型,导致评估风险的成本高昂。本文提出了一种低成本的成员推断攻击方法,利用小型分位回归模型的集成,以有效判定文档是否属于训练集。实验结果显示,该方法在计算预算仅为现有方法6%的情况下,取得了与最先进方法相当或更好的精度,并在多种模型和数据集上展现了强大的有效性。
Sep, 2024