Feb, 2024

针对 GPT 模型的对话重建攻击

TL;DR近期,大型语言模型(LLMs)的领域取得了显著进展,GPT 系列模型为代表。为了优化任务执行,用户通常与云环境中的 GPT 模型进行多轮对话。本文介绍了一种特定的针对 GPT 模型的对话重建攻击,评估了其中存在的隐私风险,并引入了两种高级攻击来更好地重建以前的对话。研究结果表明,在涉及 GPT 模型的对话中存在隐私风险,并旨在引起社区的关注,以防止对这些模型杰出功能的潜在滥用。