本文研究了如何对抗当前大规模语言模型检测工具的缺陷,发现攻击者结合 reinforcement from critic 优化方法和 AdamW 优化器可以轻松地规避检测,并对检测器进行破坏,这对防范恶意使用情况具有重要意义。
Apr, 2023
本研究探索了大型语言模型在威胁推理、工具信息生成和自动化网络攻击方面的潜力,讨论了 LLM 在支持特定威胁相关行动和决策方面的手动与自动化探索,以及对威胁网络潜在影响和使用 LLM 加速威胁行为能力的伦理考量,对诱导可操作反应的提示设计进行了评估和启发,并提出了探索 LLM 在更复杂网络、高级漏洞和提示敏感性方面的未解问题。
Oct, 2023
通过评估对进攻和防御应用的研究,本研究旨在提供对 LLM 驱动的网络安全领域中潜在风险和机遇的整体理解。
Jan, 2024
通过模拟用户与大型语言模型的交互,提出了一种增强网络安全的方法,包括全面的元宇宙网络安全问答和攻击模拟场景,以帮助用户认识和抵御风险,并通过扩展训练来理解个性化输入和表情符号等用户内容,验证了该方法的有效性。
Dec, 2023
本文介绍了 SecurityLLM,它是一个旨在检测网络安全威胁的预训练语言模型,其中 SecurityBERT 作为网络威胁检测机制,而 FalconLLM 则是一种事件响应和恢复系统,实验结果表明,我们的 SecurityLLM 模型可以在 98% 的准确率下识别 14 种不同类型的攻击。
Jun, 2023
大型语言模型在网络安全领域的应用综述,包括漏洞检测、恶意软件分析、数据隐私等问题,指出了数据集大小与多样性的重要性以及未来研究方向。
May, 2024
本研究介绍了 SecurityBot,一种由事先训练好的 RL 智能引导的 LLM 智能体,用于支持网络安全操作,在提供行为准则的基础上使用协作机制和动态建议,实现了与 LLM 或 RL 单独相比显著的性能提升。
Mar, 2024
大型语言模型在网络安全领域的应用、使用方式、局限性以及如何克服这些局限性和期望中的成果进行了调查。
Feb, 2024
通过生成式人工智能和大型语言模型(LLM),该论文对未来的网络安全进行了全面回顾,并探讨了 LLM 在硬件设计安全、入侵检测、软件工程、设计验证、网络威胁情报、恶意软件检测和钓鱼检测等各个领域的应用。论文提供了将 LLM 集成到未来网络安全框架中的基础理解和战略方向,强调创新和强大的模型部署以保护免受不断演变的网络威胁。
使用大型语言模型(LLMs)在网络安全中模拟后入侵阶段的攻击,通过将 LLMs 自动化来改善组织的网络安全状况,扩展红队的效力并预先检测新型攻击行为。