Jun, 2024

通过大型语言模型蒸馏和对抗对比解码进行无监督分心生成

TL;DR在阅读理解的背景下,我们提出了一种无监督的分心生成框架,利用大型语言模型作为经济高效的注释器来增强较小学生模型的分心生成能力。实验证明,我们提出的无监督生成方法大大超越了GPT-3.5-turbo的性能,而参数只有后者的200倍少。我们的无监督分心生成方法为实际阅读理解应用提供了一种经济高效的框架,无需费力的分心注释和昂贵的大型模型。