Feb, 2024

Concept-1K:一种实例增量学习的全新基准

TL;DR基于对 Concept-1K 实验的研究,揭示了数十亿参数的预训练语言模型仍然受到灾难性遗忘的影响,并且遗忘受模型规模、预训练和缓冲区大小的影响。同时,现有的增量学习方法和一种流行的微调技术 LoRA 都无法达到令人满意的性能。这项研究为进一步探索预训练语言模型的灾难性遗忘提供了新的研究场景,鼓励设计更强大的技术来缓解预训练语言模型的遗忘问题。