ICMLFeb, 2021

使用前校准:提高语言模型的少样本性能

TL;DR探究了 GPT-3 的 few-shot 学习的不稳定性,发现这种不稳定性来自于语言模型偏向性,经过文本校准,这种偏向得到了有效的改善,平均准确率可以提高 30%。