Jun, 2023
无需训练的 RNN 和 Transformer 神经结构搜索
Training-free Neural Architecture Search for RNNs and Transformers
Aaron Serianni, Jugal Kalita
TL;DR本文研究了针对语言建模任务的循环神经网络 (RNN) 和基于 BERT 的 transformer 架构的无需训练的 NAS 指标,提出了一种新的指标来预测训练后的 RNN 性能,并发现 transformer 的搜索空间范式不适用于无需训练的神经架构搜索,需要进行优化。