BriefGPT.xyz
Ask
alpha
关键词
task-based hard attention mechanism
搜索结果 - 1
ICML
利用任务硬注意力克服灾难性遗忘
本文提出了一种基于任务的硬注意机制,利用随机梯度下降学习硬注意掩码来保留上一个任务中的信息而不影响当前任务的学习,有效提高神经网络在顺序学习能力上的性能。此方法对不同超参数的选择也具有鲁棒性,并且具有控制学习知识稳定性和紧凑性等特点,在在线
→
PDF
7 years ago
Prev
Next