ICMLFeb, 2021
使用前校准:提高语言模型的少样本性能
Calibrate Before Use: Improving Few-Shot Performance of Language Models
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh
TL;DR探究了 GPT-3 的 few-shot 学习的不稳定性,发现这种不稳定性来自于语言模型偏向性,经过文本校准,这种偏向得到了有效的改善,平均准确率可以提高 30%。