ICLRJan, 2023

Transformer-Patcher: 一错必补的神经元

TL;DR本研究提出一种被称为 Transformer-Patcher 的神经网络模型,能够通过简单地添加和训练最后一层前馈网络中的少量神经元,连续纠正长序列中的错误,达到了顺序模型编辑(SME)的最优表现,解决了工业环境中部署的模型如何快速准确地修正错误问题。