BriefGPT.xyz
大模型
Ask
alpha
关键词
adapter modules
搜索结果 - 23
ACL
共享超网络的 Transformer 多任务微调的参数高效方法
本文提出了一种通过使用共享的超网络生成适配器参数来学习所有层和任务的参数高效的多任务学习框架,从而在跨任务共享知识的同时,通过任务特定的适配器使模型适应每个单独的任务,并在已知的 GLUE 基准测试中实现了多任务学习的改进性能。
PDF
3 years ago
EMNLP
UDapter:面向真正通用依存句法分析的语言适应
该研究提出了一种基于文本参数生成和适配器模块的新型多语言任务适应方法,该方法通过语言嵌入来学习适配器,同时在各种语言之间共享模型参数,可有效地集成现有的语言类型学特征到分析网络中,并在高资源和低资源语言中均显着优于强的单语言和多语言基线,这
→
PDF
4 years ago
NLP 的参数高效迁移学习
通过适配器模块实现神经网络参数共享,避免针对每个任务都需要重新训练整个神经网络的问题。将适配器模块应用于 BERT Transformer 可以达到接近完全微调的性能,同时每个任务只需增加 3.6%的可训练参数,表现十分出色。
PDF
5 years ago
Prev
Next