LLVM 编译器中指令组合的学习
改进大型语言模型的细化调整方法,通过使用多样的组合指令集合,提高了模型对不同任务的泛化性能;引入了链式指令的新概念(CoI),使模型能够处理由多个子任务组成的复合指令,将模型性能在多语言摘要生成任务中进行了验证。
Feb, 2024
在本研究中,我们提出了一种称为基于指令的连续学习(InsCL)的新范例,通过使用 Wassertein 距离计算任务相似性并基于此动态地回放先前的数据,实现了基于任务相似性的回放策略,同时引入了指令信息度量(InsInfo)来量化指令的复杂性和多样性,并根据 InsInfo 指导回放过程更倾向于高质量的数据。我们在 16 个不同训练顺序的任务上进行了广泛的实验,观察到 InsCL 持续性能改进。当所有任务都训练完毕时,与随机回放相比,InsCL 实现了 3.0 相对增益,与无回放相比,实现了 27.96 相对增益。
Mar, 2024
通过连续指令调整(CoIN)对多模态大型语言模型(MLLMs)进行评估,发现当前强大的 MLLMs 仍然存在灾难性遗忘,并提出了 MoELoRA 方法有效地保留了以前的指令对齐。
Mar, 2024
通过将上下文学习(ICL)视为元优化过程,本文解释了为什么 LLMs 对 ICL 示例的顺序敏感,从而引导我们开发了一种有效、高效且无序的 ICL 推理算法 Batch-ICL。与标准的 N-shot 学习方法不同,Batch-ICL 使用 N 个独立的 1-shot 前向计算,并聚合得到的元梯度,然后将这些聚合的元梯度应用于零 - shot 学习以生成最终预测。该批处理方法使 LLM 对 ICL 示例的顺序不敏感。通过大量的实验和分析,我们证明 Batch-ICL 一直优于大多数示例序列的排列。在某些情况下,它甚至超过了标准 ICL 的最佳顺序的性能,同时减少了所需的计算资源。此外,我们还开发了一种新颖的 Batch-ICL 变体,具有多个 “epochs” 的元优化,这种变体隐式地探索 ICL 示例的排列,进一步增强了 ICL 的性能。
Jan, 2024
通过自动修订样本来增强指令数据集的质量,CoachLM 训练自人工专家修订过的样本,并将数据集中高质量样本的比例从 17.7%提高到 78.9%。CoachLM 通过平均 29.9%的提升改善了指令调优的语言学习模型的指令跟随能力,并在华为的 LLM 数据管理系统中实现了高达 20%的效率提升。
Nov, 2023
通过使用编码 - 解码原理,我们引入了 CodecLM,这是一个用于自适应生成与不同后续指令分布和大语言模型对齐的高质量合成数据的通用框架。在编码过程中,我们将种子指令转化为元数据,然后通过解码来创建定制的指令。我们还引入自我评分和对比过滤来定制数据样本,经过在四个开放领域指令遵循基准测试上的大量实验证明,CodecLM 相对于当前技术水平具有显著的效果。
Apr, 2024
我们提出了一种新的具有多模态输出功能的视觉理解的上下文学习框架,通过将文本和视觉提示量化和嵌入到统一的表示空间中,并采用仅具有解码器的稀疏 Transformer 架构在其上执行生成建模。实验结果表明,我们的模型在统一的多模态管线中实现了与专门模型和先前上下文学习基准模型相竞争的性能。总体而言,我们的研究在统一多模态上下文学习方面迈出了进一步的一步。
Dec, 2023