Jun, 2024

被污染的 LangChain: LangChain 破解 LLMs

TL;DR通过 LangChain 实现 Retrieval-Augmented Generation,我们提出了间接破解和一种新的间接破解攻击方法 ——Poisoned-LangChain (PLC),该方法使用毒化的外部知识库与大型语言模型进行交互,从而导致大型模型生成恶意的非合规对话。在六个不同的大型语言模型上进行的实验表明,PLC 成功地实施了三种不同场景下的间接破解攻击,分别达到了 88.56%,79.04%和 82.69%的成功率。