ACLOct, 2021
低资源语义解析的提示微调能力
The Power of Prompt Tuning for Low-Resource Semantic Parsing
Nathan Schucher, Siva Reddy, Harm de Vries
TL;DR本文研究了针对语义分析的提示调整方法,发现在低资源分裂的情况下,提示调整的 T5-xl 能够显著优于其微调和强 GPT-3 和 BART 基线表现。随着模型规模的增大,提示调整的 T5 模型在生成目标表示方面得到了进一步提高。