Apr, 2024

研究多轮 LLM 交互的提示泄露效应和黑盒防御

TL;DR对大型语言模型(LLMs)中的提示泄漏进行了研究,发现在多轮 LLM 交互中存在漏洞和泄漏,并提出了防御策略。