将 ChatGPT 用作静态应用程序安全测试工具
本文探索了 ChatGPT 在涉及完整漏洞管理过程的六项任务中的能力,并使用包含 78,445 个样本的大规模数据集对其进行了比较。结果表明 ChatGPT 在辅助漏洞管理方面具有巨大的潜力,但同时也揭示了它所遇到的困难,并为未来的研究方向提供了启示。
Nov, 2023
ChatGPT 对安全导向的程序分析的能力进行了研究,从攻击者和安全分析师的角度出发,通过引入挑战性任务评估 ChatGPT 的回答质量,以更清楚地了解其在安全导向的程序分析领域的优势和限制。
Jul, 2023
本研究论文讨论了将人工智能用于高等教育中的教学与学习,并以 ChatGPT 作为工具,以计算机科学基础编程课程为例进行了教学和评估的探讨,结果显示使用 ChatGPT 的学生在得分上有优势,但提交的代码存在不一致和不准确的情况。
Apr, 2023
研究论文对大型语言模型(LLMs)在系统安全领域中的影响和局限性进行了探讨,发现 ChatGPT 不仅在生成代码方面有出色的能力,还在理解用户提供的自然语言指令、推理程序的控制和数据流、生成复杂数据结构以及反汇编汇编代码等方面展示了强大的能力。研究表明,GPT-4 在大多数安全任务中相较于 GPT-3.5 有显著改进,同时也确定了 ChatGPT 在安全相关任务中的某些限制,例如处理长代码上下文的能力受限。
Dec, 2023
对 ChatGPT 在软件工程中的应用进行了研究,发现 ChatGPT 在代码的语法理解方面具有较高的能力,但在代码的语义理解方面,特别是动态语义方面存在困难,容易产生虚假输出。这表明在软件工程中使用 ChatGPT 时需要进一步探索验证其输出正确性的方法,以确保其可靠性。
May, 2023
ChatGPT 对测试问题的回答质量以及如何检测测试问题是否可由 ChatGPT 正确回答的方法是本研究的重要问题。我们通过对 MedMCQA 数据集中的问题生成 ChatGPT 的回答,并分析了不同类型问题中 ChatGPT 回答准确度较低的情况。此外,我们还开发了一个基本的自然语言处理模型,用于在一组问题或样本考试中识别出对 ChatGPT 最容易攻击的问题。这个工具可以帮助考试制作者避免出现易受 ChatGPT 攻击的测试问题。
Feb, 2024
本文探讨了 ChatGPT 在科学写作、数学、教育、编程和医疗保健等不同领域作为自动化助手的能力,重点介绍了其增强生产力、简化解决问题流程和提高写作风格的潜力以及与过度依赖 ChatGPT 可能带来的潜在风险,而作者提出了使用流程建议,对输出进行独立验证,并建议专家使用该工具。
Jun, 2023
本文研究了 ChatGPT 在入门编程课程中生成不同难度程度的代码解决方案的能力,并发现 ChatGPT 能够独立解决一部分编程问题,但在复杂任务上遇到困难,结果为编程教育中应用 AI 工具的效用问题提供了新的观点。
Dec, 2023
本研究使用 ChatGPT 这一语言模型探讨了如何利用其在软件工程中辅助完成常见任务,研究结果显示 ChatGPT 对许多任务均有不错的表现,但仍存在一些任务不适用。
May, 2023
本技术报告评估了 ChatGPT 和 GPT-3 模型在代码漏洞检测任务上的性能。通过使用 CWE 漏洞的二进制和多标签分类任务对真实世界数据集进行评估,结果表明 ChatGPT 在代码漏洞检测的二进制和多标签分类任务中表现不如一个虚拟分类器。
Apr, 2023