从任务说明中学习的鲁棒性
通过理解人类可读的指令来学习新任务的挑战一直是人工智能领域的难题,本文基于自然指令数据集通过使用生成式预训练语言模型对任务特定指令进行编码和输出生成,研究横向任务泛化并发现模型在使用指令时对于未见过的任务泛化更好,但与认为上限还存在显著改进空间。
Apr, 2021
此篇综述分析了自然语言处理中基于任务指导的学习,包括任务指导的含义、类型、建模方法、影响因素、表现和挑战。此外,该文是第一次关于文本指导的全面综述。
Mar, 2023
本文首先引入了 Super-NaturalInstructions, 一个包含 1616 个不同类型的 NLP 任务及其指令的跨任务基准,通过构建 Tk-Instruct 模型,能够在超过九个百分点的水平上优于目前现存的模型,并对不同的模型参数进行了进一步的分析以期实现更通用的 NLP 模型。
Apr, 2022
该研究论文证明使用 in-context learning 可让大型语言模型显式推断潜在任务,通过自然语言生成指令,InstructGPT 的表现达到了人类的 65.7%,建议指令感应可能是一种学习范例。
May, 2022
指令微调方法能够增强大型语言模型在未知任务上的零样本功能,并对其性能和稳健性进行了评估,发现在处理陌生指令时性能显著下降,而对于关系抽取指令的稳健性较问答指令更差。
Aug, 2023
通过调整指令,大型语言模型(LLM)可以进行微调,实现真实世界任务执行和遵循人类指令;实现普遍使用的关键取决于模型学习更广泛的指令集而不仅仅是训练集上的指令。本文通过实验探究了指令多样性与模型普适性之间的权衡,发现多样性的指令集使模型具备普适性,并确保在训练集上非均匀分布指令的情况下保持鲁棒性。
Feb, 2024
研究通过逐步指南调整的方式,可以帮助语言模型完成指定任务,提高跨任务泛化能力。自动获得的逐步指南,结合原始指南对语言模型进行调整,可以为完成目标任务提供详细和具体的步骤。研究发现,高质量的逐步指南可以提高不同模型大小之间跨任务的泛化能力,并且步骤的顺序对此具有重要影响。
May, 2023
通过实验,我们揭示了先进的指令跟踪模型在抵御对抗性指令攻击方面的显著局限性,并且发现了指令调优模型容易过拟合于输入的指令短语而无法真正理解应该遵循哪些指令的问题。这突出了训练模型理解提示而非仅仅遵循指令短语并完成文本的挑战。
Aug, 2023
定义了指令不一致问题并提出了两阶段训练框架,在第一阶段通过相似指令增强帮助模型跟随指令,第二阶段通过区分相似回应中微小差异来提高模型的多样性和人类期望的一致性,并通过自奖励训练过程来验证该框架的有效性。
Mar, 2024