Jun, 2024

被污染的LangChain: LangChain破解LLMs

TL;DR通过LangChain实现Retrieval-Augmented Generation,我们提出了间接破解和一种新的间接破解攻击方法——Poisoned-LangChain (PLC),该方法使用毒化的外部知识库与大型语言模型进行交互,从而导致大型模型生成恶意的非合规对话。在六个不同的大型语言模型上进行的实验表明,PLC成功地实施了三种不同场景下的间接破解攻击,分别达到了88.56%,79.04%和82.69%的成功率。