Oct, 2023

大型语言模型是否能提供安全和隐私建议?测量 LLM 反驳误解的能力

TL;DR对大型语言模型在安全和隐私(S&P)领域中提供可靠建议的能力进行了研究,发现平均错误率为 21.3%,当用相同或释义的误解进行多次查询时错误率增至 32.6%;研究还揭示,模型可能部分支持错误观点或不表态,且提供的信息源包括无效的 URL 和无关的来源。