Mar, 2022
具有 Transformer 的内存高效的持续学习
Memory Efficient Continual Learning with Transformers
Beyza Ermis, Giovanni Zappella, Martin Wistuba, Aditya Rawal, Cedric Archambeau
TL;DR使用预训练 Transformers 并扩展它们与 Adapters,我们开发了一种方法来增量训练模型处理任务序列,成功地避免了灾难性遗忘并且在多个任务上表现良好。