大型语言模型在域生成算法检测中的应用
本文提出了一种基于长短期记忆网络的DGA分类器,可预测DGAs及其相关家族而无需事先进行特征提取,相较于同类方法,检测率提高了 20 倍,误报率减少到 1/10000。
Nov, 2016
综述了大规模语言模型(LLMs)生成内容检测的现有策略和基准,并指出该领域的关键挑战和前景,提倡采用更加适应性和稳健的模型来提高检测准确性,以及应对LLMs能力快速发展的多方面防御方法的必要性。该工作是在LLMs时代首部全面综述内容检测的研究,旨在为研究人员和从业者提供广泛了解LLMs生成内容检测的当前情况的指导参考,以保护数字信息的完整性。
Oct, 2023
比较不同的预训练和微调的大型语言模型对仇恨言论检测的影响,并强调了LLMs在不同领域的有效性和过拟合风险,通过评估,我们强调了需要通过更多样化的标签来掌握仇恨言论细微之处的微调模型的需求。最后,我们总结了对未来仇恨言论检测的展望,强调了跨领域的普适性和适当的基准实践。
Oct, 2023
利用大型语言模型结合系统调用分析,通过重新训练检测恶意系统调用,该研究提出了一种新的框架来改进恶意软件的检测,实验表明具有更大上下文尺寸的模型能够实现更高的准确性和 F1 分数,这一方法在高风险环境中具有实时检测的潜力,为不断演变的网络威胁提供了稳固的解决方案。
May, 2024
使用预训练 LLM 强化框架进行完全自动化网络入侵检测,通过在真实网络入侵检测数据集上进行实验,证明了在上下文学习方面的优势,可以在无需进一步训练或微调 LLMs 的情况下改善任务处理性能,GPT-4 的测试准确性和 F1 分数可以提高约 90%。此外,预训练 LLMs 在执行无线通信相关任务方面表现出巨大潜力,通过仅使用 10 个上下文学习示例,提出的框架可以在不同类型攻击中达到超过 95% 的准确性和 F1 分数。
May, 2024
通过生成式人工智能和大型语言模型(LLM),该论文对未来的网络安全进行了全面回顾,并探讨了LLM在硬件设计安全、入侵检测、软件工程、设计验证、网络威胁情报、恶意软件检测和钓鱼检测等各个领域的应用。论文提供了将LLM集成到未来网络安全框架中的基础理解和战略方向,强调创新和强大的模型部署以保护免受不断演变的网络威胁。
May, 2024
本研究解决了现有基于训练的检测方法在跨领域和跨模型场景中的泛化能力不足的问题。通过引入时间序列分析,提出了名为Lastde的新型无训练检测器,结合了局部和全局统计信息,显著提升了检测效果。实验表明该方法在多个数据集上达到了最先进的性能,并对同义改写攻击表现出更强的鲁棒性。
Oct, 2024
本研究解决了大型语言模型(LLMs)在应用过程中面临的提示注入攻击的安全漏洞问题。研究采用了预训练和微调的LLM两种方法进行检测比较,发现微调模型在准确率、精确度等指标上表现优异,达到了99.13%的准确率,极大地提升了提示注入攻击的检测效率。这一发现为提升LLMs的安全性提供了重要的解决方案。
Oct, 2024
本研究解决了大语言模型生成文本检测在实际应用中的可靠性不足问题。我们提出了新的基准检测工具DetectRL,展示了当前最先进的检测技术的不足之处,并采用了启发式规则生成了更接近真实应用的数据,以评估不同检测器在真实世界中的表现。该工具可作为评估检测器有效性的标准,推动更高效检测技术的发展。
Oct, 2024