BriefGPT.xyz
Ask
alpha
关键词
meta-tuning
搜索结果 - 3
通过稀疏插值专家释放元调优的强大力量,以实现少样本泛化
通过稀疏化混合专家方法,稀疏元调优成功地提高了视觉基础模型的迁移能力,并在零阶和基于梯度的适应环境中建立了新的最先进的结果。
PDF
4 months ago
ACL
读了说明书吗?重新思考指导学习中任务定义的有效性
该研究使用人工注释的消融分析方法研究任务定义在指令学习中的作用,并提出两种策略以帮助大型语言模型更好地利用任务指令,包括提供以常见结构化格式呈现关键信息的任务,并添加一个元调整阶段,以帮助模型更好地理解定义。应用这两种策略,在 119 个未
→
PDF
a year ago
EMNLP
通过集合元调整数据集和提示,为零样本学习调整语言模型
该论文提出了元调谐(meta-tuning)方法,旨在直接针对零样本学习目标对预训练语言模型进行微调,应用于分类任务,并通过聚合 43 个现有的数据集和 441 个标签描述来构建元数据集。实验证明,相比基于自然语言推理的先前 SOTA 零样
→
PDF
3 years ago
Prev
Next