Mar, 2021

GPT 也能理解

TL;DR利用可训练的连续提示嵌入 (P-tuning) 方法,在自然语言理解 (NLU) 任务上,GPT 在不需要额外文本的情况下,能够比同等大小的 BERT 表现更好或者相当,并且在 LAMA 基准测试中恢复了 64%的世界知识,同时在监督学习中,GPT 表现出类似大小的 BERT 相似或更好的性能。此外,该方法还显著减少了对提示工程的需求,并在少样本 SuperGlue 基准测试中优于现有最先进方法。