利用大规模语言模型的有针对性网络钓鱼攻击
本研究分析了 15 个大型语言模型(LLMs)在检测网络钓鱼邮件方面的效果,重点关注 “419 诈骗” 邮件。实验证明 ChatGPT 3.5、GPT-3.5-Turbo-Instruct 和 ChatGPT 是最有效的钓鱼邮件检测模型。
Apr, 2024
通过对大规模语言模型在网络钓鱼领域的应用研究,发现现有的大规模语言模型对于网络罪犯在网络钓鱼攻击中的情报收集和信息生成阶段提高了效率,在此基础上,通过 600 个英国议员的案例研究发现应用于网络钓鱼的语言模型不仅效果逼真,且花费非常低;在此基础上,提出了两种解决方案,即应用程序接口等结构化访问方案和基于大规模语言模型的防御系统,强调了治理干预的必要性。
May, 2023
利用大型语言模型进行自动化检测,发现现有的大型语言模型可以生成可信地伪造知名品牌的网络钓鱼邮件和网站,并且可以使用未修改的版本进行此类攻击。为了应对这一问题,建立了一个基于 BERT 的自动检测工具,可以在早期检测到恶意提示,以防止大型语言模型生成网络钓鱼内容,对于网络钓鱼网站提示可以达到 97% 的准确率,对于网络钓鱼邮件提示可以达到 94% 的准确率。
Oct, 2023
本研究论文介绍了一种优化的、经过微调的基于 Transformer 的 DistilBERT 模型,用于检测钓鱼邮件。通过实验,我们发现我们的模型能够有效地实现高准确性,并使用可解释的 AI 技术来解释我们的模型在钓鱼邮件的文本分类中进行预测的方式。
Feb, 2024
使用大型语言模型(LLMs)创建有针对性的横向钓鱼邮件,并评估电子邮件过滤基础设施对此类 LLM 生成的钓鱼尝试的检测能力,提供了关于其有效性的洞见,并确定了潜在的改进领域。根据我们的研究结果,我们提出了基于机器学习的检测技术来检测现有基础设施未能发现的 LLM 生成的钓鱼邮件,F1 分数为 98.96。
Jan, 2024
利用基于 BERT 模型的 IPSDM 模型,本文首次尝试将大型语言模型应用于检测钓鱼邮件和垃圾邮件,取得了更好的分类效果,并为改善信息系统安全迈出重要的第一步。
Nov, 2023
本研究探讨了大型语言模型(LLMs)在特定任务(如文本分类,特别是检测恶意内容)中的潜力和局限,并将其结果与最先进的 DeBERTa V3 模型进行对比。通过使用包括电子邮件、HTML、URL、短信和合成数据生成的综合公共数据集,我们系统地评估了这两种方法的潜力和局限,并展示了 LLMs 如何生成具有说服力的网络钓鱼邮件以及在此背景下两种模型的性能。我们的实验结果表明,基于变形金刚的 DeBERTa 方法是最有效的,其测试数据集(HuggingFace 网络钓鱼数据集)召回率(敏感性)达到 95.17%,紧随其后的是 GPT-4,召回率为 91.04%。通过我们的研究,我们提供了这些先进语言模型的有效性和稳定性的有价值的见解,并提供了详细的比较分析,以指导未来在加强检测和减轻网络钓鱼威胁方面的研究工作。
Jun, 2024
本研究探讨了使用大型语言模型(LLMs)生成针对性钓鱼信息以及它们与人工创作信息在性能上的比较的问题。实验对 GPT-4 和人工作者创作的、经过个性化定制的 smishing(短信钓鱼)信息的有效性进行了比较。目标评估了采用一种称为 TRAPD(阈值排序法)的新方法的信息,在该方法中,目标提供了个人信息(职位和地点、爱好、在线购买物品),人类和 GPT-4 根据这些信息创建了针对性的 smishing 信息,然后邀请目标重新对 12 个信息按照说服力的高低进行排序(并标识出他们会点击哪个信息),然后针对他们对信息排序的原因进行了提问。结果显示,25 名目标认为,LLM 生成的信息通常比人工创作的信息更具说服力,其中与职位相关的信息最具说服力。我们还对评估信息真实性使用的不同标准进行了描述,包括词汇选择、风格和个人相关性。结果还表明,目标无法确定信息是由人工生成还是由 AI 生成,并且在确定区分标准时存在困难。本研究旨在强调对个性化 AI 助力的社交工程攻击进行进一步研究和改进对策的紧迫性。
Jun, 2024
本文提出了一种名为 “神经钓鱼” 的新型实用数据提取攻击,可以使攻击者从基于用户数据训练的模型中目标和提取敏感或个人身份信息(PII),例如信用卡号码,攻击成功率高达 10%,有时甚至高达 50%。攻击方法仅需要攻击者将数十个看似良性的句子插入训练数据集,对用户数据的结构仅具有模糊的先验假设。
Mar, 2024