BriefGPT.xyz
Ask
alpha
关键词
model editing
搜索结果 - 43
ICLR
Transformer-Patcher: 一错必补的神经元
本研究提出一种被称为 Transformer-Patcher 的神经网络模型,能够通过简单地添加和训练最后一层前馈网络中的少量神经元,连续纠正长序列中的错误,达到了顺序模型编辑(SME)的最优表现,解决了工业环境中部署的模型如何快速准确地修
→
PDF
a year ago
语言向异性跨语言模型编辑
本文提出了适用于跨语言模型的模型编辑方法,使用平行语料库实现了单语言模型编辑方法的跨语言变体,并采用了语言各向异性编辑方法,实现了显着的编辑率下降。
PDF
2 years ago
GPT 中实际关联的定位和编辑
本文使用因果干预技术研究了自回归转换语言模型中实际关联的存储和检索,并发现这些关联对应于本地化的可直接编辑的计算。研究表明中间层前馈模块在存储实际关联方面具有重要作用,并且为模型编辑提供了直接操作计算机制的方法。
PDF
2 years ago
Prev
Next