当 LLM 遇上网络安全:一个系统文献综述
本研究探索了心理分析技术的潜力,特别关注于大型语言模型和心理语言学特征的利用,研究心理学与网络安全的交叉领域,讨论了如何利用大型语言模型分析文本数据以识别威胁行为者的心理特征,并探讨了将心理语言学特征融入网络安全框架的方法。通过案例研究和实验,证明了这些方法在增强威胁检测和缓解策略方面的有效性。我们的研究强调了将心理学视角纳入网络安全实践的重要性,以加强对不断演变的威胁的防御机制。
Jun, 2024
利用大语言模型(LLMs)从网络安全相关文本中提取相关实体,以识别发展趋势和监测新兴趋势,研究结果表明 LLMs 的知识实体并不完全反映网络安全的上下文,但名词提取器在此领域具有潜力。通过统计分析,开发了一种名词提取器,可从领域中提取特定且相关的复合名词。通过测试模型在 LLM 领域中识别趋势,观察到一些限制,但它能够提供有关新兴趋势演变的有希望的结果。
Dec, 2023
通过系统文献综述,我们深入研究了大型语言模型(LLMs)与软件工程(SE)的交叉领域,并特别关注 LLMs 在 SE 中的应用、影响和潜在局限。通过收集和分析 2017 年至 2023 年的 229 篇研究论文,我们回答了四个关键研究问题(RQs),比较分析了不同用于 SE 任务的 LLMs 的特点和用途,并详细描述了在此领域中数据收集、预处理和应用的方法,揭示了稳健、经过良好策划的数据集对于成功实施 LLM 的关键作用。同时,我们还调查了优化和评估 LLMs 在 SE 中性能的策略,以及与提示优化相关的常见技术。通过解决上述研究问题,我们勾勒出当前最先进的研究状况,找出现有研究的不足之处,并标注未来研究的有前景的领域。
Aug, 2023
本研究旨在了解大型语言模型(LLMs)在增强澳大利亚中小企业(SMEs)网络安全政策中的潜在作用,研究结果显示 LLMs 在各项性能指标中具有巨大潜力,但在完整性和清晰度方面仍存在差距,因此需要将人类专业技术和 LLMs 技术相结合并完善模型开发以解决这些问题。
Jun, 2023
本文探索大型语言模型在心理学应用中的前沿。大型语言模型如 ChatGPT 正在改变心理学研究的方式,并在认知与行为心理学、临床与咨询心理学、教育与发展心理学以及社会与文化心理学等多个领域发挥着影响,强调了它们模拟人类认知和行为的潜力。该论文还讨论了这些模型在心理学方面的能力,提供了创新工具用于文献综述、假设生成、实验设计、实验对象选择、数据分析、学术写作和同行评审。然而,尽管大型语言模型对推进心理学研究方法至关重要,但该论文也注意到了其技术和伦理挑战,如数据隐私、在心理学研究中使用大型语言模型的伦理影响以及对这些模型局限性的更深入了解的需要。研究人员应该负责任地在心理学研究中使用大型语言模型,遵守伦理标准,并考虑在敏感领域部署这些技术的潜在后果。总之,这篇文章全面概述了大型语言模型在心理学中的现状,探讨了潜在的好处和挑战。它号召研究人员在充分利用这些模型的优势的同时,负责任地解决相关风险。
Jan, 2024
大型语言模型在最近几年取得了迅猛的进展,其能力正在不断加速,通过各种基准测试,其能力接近于人类的水平。由于存在未解决的脆弱性和限制,人们在将这些模型应用于智能和安全关键应用之前需要谨慎。本文回顾了与 LLM 评估和脆弱性相关的最新文献,综合当前的研究进展,并帮助了解哪些进步对于在智能和安全关键应用中使用这些技术最为关键。这些脆弱性被分为十个高级类别,并与 LLM 的一个高级生命周期进行了叠加。还对一些常见的缓解措施进行了综述。
Dec, 2023
通过生成式人工智能和大型语言模型(LLM),该论文对未来的网络安全进行了全面回顾,并探讨了 LLM 在硬件设计安全、入侵检测、软件工程、设计验证、网络威胁情报、恶意软件检测和钓鱼检测等各个领域的应用。论文提供了将 LLM 集成到未来网络安全框架中的基础理解和战略方向,强调创新和强大的模型部署以保护免受不断演变的网络威胁。
May, 2024