BriefGPT.xyz
Ask
alpha
关键词
task-conditioned modules
搜索结果 - 1
ICLR
有条件自适应多任务学习:减少参数和数据来提高自然语言处理的迁移学习能力
通过使用新的 Transformer 架构,包括一种新的条件注意机制以及一组任务条件模块,旨在促进权重共享,我们实现了更有效的参数共享,并通过保持预训练模型的一半权重来缓解遗忘。同时,我们使用了新的多任务数据采样策略来减少任务之间数据不平衡
→
PDF
4 years ago
Prev
Next