ICMLJan, 2018

利用任务硬注意力克服灾难性遗忘

TL;DR本文提出了一种基于任务的硬注意机制,利用随机梯度下降学习硬注意掩码来保留上一个任务中的信息而不影响当前任务的学习,有效提高神经网络在顺序学习能力上的性能。此方法对不同超参数的选择也具有鲁棒性,并且具有控制学习知识稳定性和紧凑性等特点,在在线学习或网络压缩应用中也是吸引人的。