May, 2023

利用大型语言模型的自我批判提示用于归纳教学

TL;DR本文提出了一种名为 INDust(Inductive Instructions)的挑战基准来评估大型语言模型(LLMs)是否能够抵抗用户提供的带误导性的指令,并提出了一种名为 Self-Critique prompting 的方法来防范 LLMs 误导用户。实验证明该方法在零样本和小样本环境下都能有效提升 LLMs 的对归纳指令的处理能力。