通过外部引导对预训练语言模型进行噪声抗干扰微调
该研究旨在提出一种简单而有效的方法名为 NoisyTune,通过在微调之前为 PLMs 的参数添加一些噪声来帮助更好地微调 PLMs,在 GLUE 英语基准和 XTREME 多语言基准上进行的广泛实验表明 NoisyTune 可以持续增强不同 PLMs 在不同下游任务的微调。
Feb, 2022
本文提出了一种新颖的无微调的自然语言处理模型 Fine-tuning-free strategy,通过使用语言和强任务感知的 teacher signal 进行交互式训练,提高了该模型在多项任务中的泛化性和鲁棒性,并且相对于大型模型如 GPT-3 和 InstructGPT 而言,该模型较小,只有 0.3B 的参数。
May, 2023
目前在使用大型语言模型(LLM)进行细调以进行翻译方面的实践中,研究发现 LLMs 在仅用 32 个训练实例进行细调后表现出很强的翻译能力,并且单向细调能够使 LLMs 实现多方向翻译,但是选择翻译方向非常重要,使用英语在目标语言侧进行细调可能导致任务误解,从而阻碍对非英语语言的翻译。在平行数据的目标语言侧引入噪声时也会出现类似的问题,尤其当目标语言在 LLM 的预训练中具有较好的表示时。相比之下,对于不充分表示的语言,噪声的影响较小。研究发现,成功对齐取决于教会模型保持 “表面” 关注,从而避免学习错误的偏差而影响翻译。
Apr, 2024
本文介绍了一种利用预训练语言模型生成标注文本数据集的方法,从而实现高质量的无监督学习得到的句子嵌入。实验结果表明,这种方法在多个语义文本相似性测试数据上实现了比较好的性能表现。
Apr, 2021
利用特定域数据对大型语言模型进行微调时,存在个人身份信息敏感度的问题。为了解决这一挑战,我们引入了隐私保护语言模型(PPLM),通过有效注入特定领域知识来保护数据隐私。我们的工作提供了模型设计理论分析,并详细介绍了诸如语料库整理、基于惩罚性失真的训练损失和基于指令的微调等技术。在各种数据集和场景下的广泛实验证实了我们方法的有效性。特别是,正负样本指令微调成为一种有潜力的方法,可以在增强模型知识的同时保护私人数据。我们的工作突显了大型语言模型作为强大隐私保护学习器的潜力。
Oct, 2023
CP-Tuning 是第一个无需手动工程任务特定提示和说明符进行微调的端到端对比提示调整框架,它与任务不变的连续提示编码技术和完全可训练的提示参数相集成。
Apr, 2022
本文提出了一种称为 Match-Tuning 的简单且有效的微调方法,通过匹配不同批次中的实例的其他实例来增强预训练语言模型的鲁棒性,实验证明这种方法在各种任务中均优于传统的微调方法,并且对抗攻击和数据不平衡具有显著的鲁棒性。
May, 2022
本文提出了一种名为 LNSR 的 fine-tuning 框架,通过注入高斯噪声或浸入式噪声,对 fine-tuned 模型的隐藏表示进行规范化,以解决预训练语言模型的过拟合问题,并证明其在 question answering task 方面具有优越性。
Jun, 2022
使用弱监督和微调大型语言模型(LLM)的方法,在几乎没有领域知识的情况下,能够在性能上显著优于传统的有限的标准数据的监督方法,利用基于提示的方法,LLM 生成弱标记数据来训练下游的 BERT 模型,然后将弱监督模型进一步在少量的标准数据上进行微调,通过评估发现该方法优于 out-of-the-box PubMedBERT 4.7% 至 47.9% 的 F1 得分。
Jun, 2024
通过引入噪声条件器和知识蒸馏方法,我们提出从 N-best 列表中提取语言空间噪声嵌入,以增强噪声鲁棒性和改善识别结果的方法。实验证明该方法在有限的训练数据下,可以获得高达 53.9% 的纠错率改善,表现出强大的语言空间降噪能力。
Jan, 2024