BriefGPT.xyz
大模型
Ask
alpha
关键词
intermediate task training
搜索结果 - 2
中间任务训练对于域自适应和跨语言迁移学习的(无)效性
本文分析了使用三种大型语言模型 BERT、RoBERTa 和 XLNet 在文本分类、情感分析、句子相似度三个自然语言处理任务上进行领域内和跨语言适应的迁移学习,并发现大多数任务直接进行微调而不进行中间任务训练可以获得更好的性能,而更广义的
→
PDF
2 years ago
ACL
预训练模型的中间任务迁移学习在自然语言理解中的应用:何时和为何有效?
对预训练模型 RoBERTa 进行 110 种中介 - 目标任务组合的大规模研究,发现需要高级推理和推理能力的中介任务最好。目标任务的表现与核心指代消解等高级能力密切相关,需要进一步研究广覆盖的评估基准。有证据表明,预训练过程中所学知识的遗
→
PDF
4 years ago
Prev
Next