Feb, 2025

大型语言模型是否考虑安全性?对编程问题响应的实证研究

TL;DR本研究探讨了当前流行的对话式大型语言模型(LLM)在软件开发中对安全性的关注,特别是在生成内容时的潜在安全风险。通过评估Claude 3、GPT-4和Llama 3对含有脆弱代码的Stack Overflow提问的反应,我们发现这些模型在识别和警告用户有关安全漏洞方面的能力有限,且在发出警告时往往能提供更多关于漏洞原因和修复的信息。这项研究的发现揭示了LLM在安全意识方面的不足,并提出了一种生成更安全回应的工具。