应用密码模型进行压力测试能力引发
本文提出了CALM实验框架并使用梯度基于对抗攻击的方法对语言模型的内部表示进行破坏性实验,以评估其在执行特定任务时使用每个表示的能力。在对BERT等LM执行对应关系提示任务的案例研究中,发现LM在执行每个任务时所利用的表示高度交织在一起,但可以在它们最常被利用的任务方面进行有意义的解释。
Mar, 2023
训练大型语言模型遵循指示能够使其在各种任务上表现更好,但完全符合的模型会遵循即使是最恶意的指示并且容易生成有害内容。本文提出了对强调帮助而不是安全性的模型安全性的担忧。我们展示了一些流行的经过指示调优的模型高度不安全。此外,我们证明了在训练LLaMA等模型进行微调时,仅增加3%的安全示例(几百个演示)可以显着提高其安全性。我们的安全性调优并不会使模型在标准基准测试中明显变得不够能力强或有所帮助。然而,我们发现一种夸大的安全性行为,即过度的安全调优使模型拒绝对表面上类似不安全的合理提示作出回应。我们的研究揭示了训练LLM遵循指示并展示安全行为的权衡。
Sep, 2023
大型语言模型的安全性评估和对抗攻击是一个新兴的跨学科领域,本文调查了该领域的相关研究,并提供了对大型语言模型、安全对抗、漏洞源及潜在防御措施的综述。
Oct, 2023
大型语言模型在各个领域中得到了广泛应用,但是它们也面临不同类型的攻击,如越狱、提示注入和隐私泄露攻击。本研究探讨了下游任务(如改进性调整和量化)对大型语言模型的脆弱性的影响,并展示了使用外部防护措施以减少脆弱性的实用性。
Apr, 2024
大型语言模型的开源加速应用开发、创新和科学进步,但对于基础语言模型的固有指令限制是否可以防止滥用的普遍假设存在关键的疏忽。我们的研究通过精心设计的演示表明,基础语言模型能够有效地解释和执行恶意指令,此漏洞无需特殊知识或训练即可被操纵,强调了对基础语言模型安全协议的紧急关注的重大风险。
Apr, 2024
通过使用多种提示策略,我们成功地减少了大型语言模型中的过度安全行为,这些策略包括使用 XSTest 数据集、交互提示、上下文提示以及少样本提示,从而使模型能够在拒绝不安全的输入的同时保持有用性。
May, 2024
大型语言模型是各种人工智能应用中的关键组件,理解它们的安全漏洞和防御机制的有效性至关重要。本文调查了LLMs的安全挑战,重点关注两个主要领域:Prompt Hacking和Adversarial Attacks,每个领域都有特定类型的威胁。通过对Prompt Hacking和Adversarial Attacks的分析,研究了它们的工作原理、潜在影响以及缓解方法。调查强调了这些安全挑战,并讨论了保护LLMs免受这些威胁的强大防御框架。通过详细阐述这些安全问题,调查为抵御复杂攻击的坚韧人工智能系统的构建提供了宝贵的讨论。
Jun, 2024
AI系统的可信能力评估对于确保其安全至关重要并成为AI法规的关键组成部分;然而,开发者或AI系统本身可能会有压低评估结果的激励,这导致了“故意在评估中表现较差”的问题;本文评估了现代语言模型的故意表现较差能力,并发现在特定密码的条件下模型可以隐藏特定能力,进一步表明评估存在安全漏洞,削弱了对于先进AI系统开发和部署的重要安全决策的可信度。
Jun, 2024
本研究探讨了大型语言模型 (LLMs) 在真实任务中多种能力交叉的表现,填补了对跨能力评估的研究缺口。通过定义七种核心个体能力并形成相应的跨能力,从而开发了CrossEval这一基准,分析显示LLMs的表现受最弱能力的严重限制,这一发现强调了在复杂场景中识别和提升弱项能力的重要性。
Sep, 2024
本研究探讨了当前大语言模型(LLMs)在跨能力任务中的表现,尤其是它们在处理多种专业能力交叉时的不足。通过定义七个核心能力并结合形成跨能力,研究引入了CrossEval基准,显示了现有LLMs在跨能力表现上受限于最弱组件,这一发现强调了未来研究中识别和提升弱点的重要性,以优化复杂任务的性能。
Sep, 2024