Jan, 2024

通过上下文推断减轻语言模型中强先验问题

TL;DR我们开发了一种新技术来减轻强偏好问题,通过将原始指令集产生一个弱化版本的提示并从弱化的提示中推断模型如何继续执行一个假设加强的指令集,我们将语言模型概念化为混合模型,并对 GPT-2、GPT-3、Llama 2 和 Mistral 等模型进行了应用,在四个任务中找到了 41/44 的改进,在所有 44 个组合中,完成任务比例的中值增加了 40%。