BriefGPT.xyz
Ask
alpha
关键词
readout layers
搜索结果 - 1
诊断灾难:连续学习中的大部分准确性损失可归因于读出失调
在这篇论文中,我们研究了导致人工神经网络在变化的数据分布上训练后旧任务性能迅速下降的表征性变化,并确定了解释这一现象的三个不同过程。最主要的成分是隐藏表征与输出层之间的不对齐,这种不对齐是由于在其他任务上的学习造成的,它导致内部表征发生位移
→
PDF
9 months ago
Prev
Next