ICMLFeb, 2023

神经注意力存储

TL;DR提出了一种新颖的关注机制,即神经关注记忆(NAM),它是一种可读写的记忆结构,并基于此设计了基于 NAM 的 MANN、few-shot 学习、N-way K-shot 学习和 Transformer 等模型,实验证明 NAM 在算法零样本泛化、减少假阳性等方面效果更好。