BriefGPT.xyz
大模型
Ask
alpha
关键词
in-context tuning
搜索结果 - 3
ACL
通过上下文一次性演示实现适应性跨语言文本分类
通过在分类任务中介绍上下文一次性跨语言转换(IC-XLT),可以通过训练模型学习上下文示例,然后在推断时通过在目标语言中预置一次性上下文演示来适应目标语言,提高评估的 mT5 模型的跨语言能力,超过基于提示的模型在经过微调的零和少样本情景中
→
PDF
3 months ago
参数化上下文:释放参数高效微调和上下文调整在连续表格语义解析中的能力
本文介绍了一个用于训练连续表语义解析器的新方法,该方法整合了参数高效微调(PEFT)和上下文微调(ICT),通过冻结预训练模型骨干和微调小规模提示来完全避免灾难性遗忘,并且通过教师 - 学生框架解决了少样本学习问题,通过 ICT 获得上下文
→
PDF
9 months ago
ACL
基于语言模型上下文调整的元学习
通过将调整和预测转化为简单的序列预测问题,我们提出了 'in-context tuning' 方式来解决 NLP 中的元学习问题,并在两个文本分类任务组合上对其进行了基准测试。在所有模型尺寸上,相对于梯度下降调整模型的一阶 MAML,我们的
→
PDF
3 years ago
Prev
Next