ACLMay, 2021
使用预训练转换器进行人类级自然语言处理的实证评估:样本大小和维度的作用
Empirical Evaluation of Pre-trained Transformers for Human-Level NLP: The Role of Sample Size and Dimensionality
Adithya V Ganesan, Matthew Matero, Aravind Reddy Ravula, Huy Vu, H. Andrew Schwartz
TL;DR本文系统研究了在人类级别 NLP 任务如何通过降维方法及向量嵌入维度与样本大小来提高预测性能,其中 RoBERTa 模型在使用 PCA 降维时处理长文本用户表现更佳,大多数任务仅需 1/12 的向量嵌入维度即可达到最佳表现。