Sep, 2024
减轻大语言模型的后门威胁:进展与挑战
Mitigating Backdoor Threats to Large Language Models: Advancement and
Challenges
TL;DR本研究旨在解决大语言模型(LLMs)面临的后门攻击问题,这些攻击因模型规模扩大而愈发严重。论文提出了一种全面的调查,涵盖了LLMs在发展和推理过程中出现的后门威胁,以及最新的防御与检测策略。研究的主要发现是,尽管已有进展,但在应对这些威胁方面仍面临许多挑战,需进一步研究。