差分蕴涵用于参数高效的少样本学习
本研究提出了一种名为 EFL 的新方法,将潜在的自然语言处理任务重新表述为蕴含任务,并在少至 8 个样例的情况下微调模型,进而证明该方法可以自然地与无监督对比学习数据增强方法相结合,易于扩展为多语言少样本学习,并在 18 个标准 NLP 任务上进行了系统评估,表明该方法将现有 SOTA 少样本学习方法的性能提高了 12%,在相同数据量下,可以达到与 GPT-3 相近的少样本性能
Apr, 2021
本文提供了一个统一框架来探讨 NLP 中参数高效的迁移学习方法,将多种不同的方法重新构建为预训练模型中特定 hidden states 的修改,定义了一组设计维度以表明不同方法的变化方向,如计算修改的函数和应用修改的位置等。通过涵盖机器翻译、文本摘要、语言理解和文本分类基准的全面实证研究,识别了以前方法中的重要设计选择。此外,我们的统一框架使得设计元素可以在不同方法之间进行转移,从而实现了比以前更高效的 fine-tuning 方法。
Oct, 2021
本研究设计了一种提示策略,将多个 NLU 任务作为上下文蕴含进行推断,并提出了简单伪标签编辑算法(SimPLE)以提高自我训练的伪标签质量,在二分类和多分类分类任务上进行的实验表明,自我训练蕴含模型在语言理解任务上比大型语言模型更有效和可信。
May, 2023
LM-BFF 提出了一种改进的面向小型语言模型的少样本 fine-tuning 方法以提升在多种 NLP 任务上的性能。通过与传统的 fine-tuning 方法相比,LM-BFF 组合的技术在低资源环境下具有显著改进,最高可达 30%,平均提高 11%。
Dec, 2020
本文提出了一种参数高效的法律领域适应方法,该方法使用公共法律论坛的海量无监督法律数据进行法律预训练,成功地在各种法律任务上超过或匹配现有模型的低样本学习性能,同时只调整了约 0.1%的模型参数,达到与现有方法相当的校准效果。
Oct, 2022
使用少量训练示例和任务说明来训练语言模型对于几乎所有任务都很重要,本文提出在极小数据量情境下调整 LM 可显著降低提示工程需求,使用 0.1% 参数更新的 bias terms 可以实现与标准调整相当甚至更好的准确性。
Jun, 2021
本篇研究证明,考虑下游微调方法会提高轻量级微调技术的性能,通过使用 MAML 和优化元学习技术为轻量级微调方法进行预先训练,我们可以使受过训练的语言模型适合轻量级微调,从而在跨语言 NER 微调中获得高达 1.7 分的收益。
May, 2022
通过比较 Few-shot in-context learning 和 Parameter-efficient fine-tuning 的方法,我们证明 PEFT 具有更好的精度和极低的计算成本。我们提出了一种名为 (IA)$^3$ 的新的 PEFT 方法,并提出了一个基于 T0 模型的简单配方,称为 T-Few,在没有任务特定调整或修改的情况下可以应用于新任务。我们在 RAF 基准测试中验证了 T-Few 的有效性,首次达到了超人类表现,并超越了现有技术的 6%。
May, 2022
提出了一个增强参数高效方法的少样本适应和跨领域泛化能力的通用框架,通过使用自监督模型来迅速适应各种下游少样本任务,并在一个包含 160 个不同 NLP 任务的跨领域基准上进行了实验证明,在额外的训练任务调整 PLM 的前提下最佳性能,综合分析了各种少样本跨领域场景下的参数高效方法。
Dec, 2022
本文提出一种基于预训练的参数高效迁移学习框架,使用共享的超网络对预训练语言模型进行微调,支持语言和视觉任务,并在多任务学习中具有较好的性能和转移能力。
Mar, 2022