Dec, 2023

基于 Transformer 的关键词生成的跨领域鲁棒性

TL;DR通过对领域之间的文本进行预训练和微调,我们探索了抽象文本摘要模型在关键词选择任务中的效果,并发现在样本数量有限的情况下,领域间的转移学习可以提高模型性能。