The ability to learn tasks in a sequential fashion is crucial to the
development of artificial intelligence. neural networks are not, in general,
capable of this and it has been widely thought that catastrophic forgetti
通过添加上下文依赖的门控信号,使得只有稀疏且大多非重叠的单元模式在任何一个任务中处于活动状态,从而稳定 ANN 的连接权重,以减轻灾难性遗忘。该方法易于实施,计算开销小,并且在与权重稳定相结合情况下能够使 ANN 在大量顺序呈现的任务中保持高性能,这些工作提供了另一个神经科学启发的算法如何有益于 ANN 设计和能力的例子。