LogShield: 基于自注意力机制的 APT 检测系统
TBDetector is a transformer-based APT detection method that uses provenance analysis to identify anomalous activities in long-running system executions and extracts long-term features of system states with anomaly scores, presenting better performance than current state-of-the-art methods.
Apr, 2023
本文介绍了 SecurityLLM,它是一个旨在检测网络安全威胁的预训练语言模型,其中 SecurityBERT 作为网络威胁检测机制,而 FalconLLM 则是一种事件响应和恢复系统,实验结果表明,我们的 SecurityLLM 模型可以在 98% 的准确率下识别 14 种不同类型的攻击。
Jun, 2023
我们提出了一种基于 Transformer 的日志异常检测方法,包括预训练和适配器调整阶段,旨在实现多领域的良好泛化性能,并在一个源域和两个目标域的三个数据集上取得了最先进的性能。
Dec, 2021
提出了一种名为 AdaShield 的方法,通过在输入前添加防御提示来防御结构性越狱攻击,无需对 MLLMs 进行微调或训练额外的模块,并通过广泛实验证明了该方法可以提高 MLLMs 对结构性越狱攻击的鲁棒性。
Mar, 2024
MAGIC 是一种新颖灵活的自我监督 APT 检测方法,能够在不同级别的监督下执行多颗粒度检测,通过掩码图表示学习对良性系统实体和行为进行建模,在溯源图上进行高效深度特征提取和结构抽象,通过异常检测方法检测异常系统行为,从而实现系统实体级别和批量日志级 APT 检测,解决了概念漂移问题,并成功应用于广泛的条件和检测场景。在三个广泛使用的数据集上对 MAGIC 进行评估,包括真实世界和模拟攻击。评估结果表明,MAGIC 在所有场景中都取得了有希望的检测结果,并在性能开销上比现有的 APT 检测方法具有巨大优势。
Oct, 2023
提出一种名为 SHIELD 的算法,将文本神经网络的最后一层进行修改和重新训练,形成一种加权多专家预测头的随机加权集合,从而混淆攻击者并进一步提高模型准确率。
Nov, 2020
近年来,机器学习(ML)模型在各个领域取得了显著的成功,然而这些模型也倾向于表现出不安全的行为,这限制了它们在安全关键系统中的部署。为了解决这个问题,许多研究集中在开发能够保证给定 ML 模型的安全行为的方法。其中一个突出的例子是屏蔽,它包含一个外部组件(“屏蔽器”)用于阻止不需要的行为。尽管取得了相当大的进展,但屏蔽仍然存在一个主要问题:它目前只适用于命题逻辑(例如 LTL)编码的属性,对于更丰富的逻辑来说是不合适的。因此,这限制了屏蔽在许多真实世界系统中的广泛适用性。在这项工作中,我们填补了这个空白,并将屏蔽扩展到 LTL 模理论,借助最近在反应合成模理论方面的进展。这使我们能够开发一种在这种更具表达性的逻辑中生成符合复杂安全规范的屏蔽器的新方法。我们评估了我们的屏蔽器,并展示了它们处理具有时间动态的丰富数据的能力。据我们所知,这是第一个为这种表达方式合成屏蔽器的方法。
Jun, 2024
TextShield 是一种基于显著性信息的检测器和修正器相结合的文本防御方法,可以有效检测和转换输入文本中的对抗性语句。实验表明,TextShield 比同类方法具有更高的性能和更好的检测精度。
Feb, 2023
RAPID 是一种基于深度学习的新型方法,利用上下文感知异常检测和警报追踪来实现强大的高级持续性威胁(APTs)检测和调查,通过利用自我监督的序列学习和迭代学习的嵌入,我们的方法能够有效应对动态系统行为,并且通过使用溯源跟踪,丰富警报信息和提高检测能力,RAPID 在真实场景中证明了其有效性和计算效率,同时相比最先进的方法具有更高的精确度和召回率,显著减少误报,RAPID 整合上下文信息,便于从检测过渡到调查,为安全团队提供详细的见解以高效应对 APTs 威胁。
Jun, 2024
大型语言模型的安全性是一个重要问题,本研究提出了 Adversarial Prompt Shield(APS)这个轻量级模型,能够有效检测和抵御对抗抓取;同时,我们还引入了自动生成对抗训练数据集的新策略,命名为 Bot Adversarial Noisy Dialogue(BAND)数据集,以提高安全分类器的鲁棒性。经过评估,我们的分类器成功率提高了 60%,为下一代更可靠和韧性更强的对话代理铺平了道路。
Oct, 2023