BriefGPT.xyz
Ask
alpha
关键词
local adaption
搜索结果 - 1
ICLR
BERT 在连续任务中能否避免遗忘?一个探究研究
该研究发现预训练语言模型 BERT 能够在学习新任务时不需要稀疏经验回放外就能保留以前所学的知识,通过探究其机制并采用记忆重演方法能够有效减少任务增量学习中的遗忘。
PDF
a year ago
Prev
Next