Oct, 2023

基于神经架构搜索的级联多任务自适应学习

TL;DR利用神经架构搜索(NAS)框架提出一种自动且有效的自适应学习方法来优化端到端级联多任务模型,通过在每个特定模块上选择冻结、插入适配器和微调等候选自适应操作,并在损失函数中添加了一个惩罚项限制学习结构,成功地压缩优化参数至相当于全微调的 8.7% 并获得更好的性能。