Mar, 2023

LLaMA-Adapter: 使用零初始化注意力对语言模型进行高效微调

TL;DRLLaMA-Adapter 是一种轻量级的适应方法,用于高效地对 LLaMA 进行微调,该方法采用一个可学习的适应提示集,将其插入到输入文本标记中的高级 transformer 层中,并提出一种有效地保留其预训练知识的零启动注意机制,以改进 LLaMA 的性能。