Oct, 2023

参数化上下文:释放参数高效微调和上下文调整在连续表格语义解析中的能力

TL;DR本文介绍了一个用于训练连续表语义解析器的新方法,该方法整合了参数高效微调(PEFT)和上下文微调(ICT),通过冻结预训练模型骨干和微调小规模提示来完全避免灾难性遗忘,并且通过教师 - 学生框架解决了少样本学习问题,通过 ICT 获得上下文信息来演示几个训练样本,然后学生利用 PEFT 框架从教师的输出分布中学习,并将上下文信息压缩保存到提示中,消除了存储任何训练样本的需要。在两个基准测试中进行的实验评估确认了我们方法在各种度量标准上相对于常见的少样本和连续学习基准的优越性。