Mar, 2024

基于 BERT 的句子分类的神经架构搜索

TL;DR使用大型文本语料库对语言模型进行预训练是自然语言处理中常见的做法。然后,对这些模型进行微调以在各种任务中取得最佳结果。本文对仅添加单个输出层作为网络顶部的分类头的常见做法提出了质疑。我们进行了一次自动机器学习搜索,以找到在计算成本较小的情况下能够超过当前单层分类器的体系结构。我们在 GLUE 数据集的各种自然语言处理基准上验证了我们的分类体系结构。