Mosaic IT:利用数据镶嵌增强指令调优
对于指令调优(IT)领域的研究进行了概述,它是增强和可控大型语言模型(LLMs)能力的关键技术。该研究系统回顾了 IT 的一般方法论、IT 数据集的构建、IT 模型的训练以及不同模态、领域和应用的应用,并分析了影响 IT 结果的因素(例如,指令输出的生成、指令数据集的大小等)。还审查了 IT 存在的潜在问题以及对其的批评,指出了现有策略的不足之处,并提出了一些有益的研究方向。
Aug, 2023
本文介绍了 Multi-Modal Multilingual Instruction Tuning 数据集,其中包含了 40 个经过精心筛选的数据集,共 2.4 百万个实例和 400 个任务指令,可用于优化视觉语言模型的人类指令对齐,同时介绍了在此数据集上训练的 Ying-VLM 视觉语言模型的表现。
Jun, 2023
本研究提出了 MultiInstruct,这是第一个多模态指令调优基准数据集,旨在设计多个特定的任务和多个专家编写的指令,使用已存在的开源数据集和多个迁移学习策略来优化 OFM 模型的强零示性能,并且探索了一个新的评估指标:敏感性。
Dec, 2022
通过对多模式大语言模型的最新图像语言指令调整设置和数据集的系统回顾,我们总结出高质量图像语言调整数据的特点,构建了完整的数据收集、指令生成和质量控制模块的构建流水线,并在所构建的指令数据上对三种广泛使用的多模式大语言模型进行了图像语言指令调整,并通过相应的度量指标进行了大量实验,以论证本文提出的构建原则的合理性。
Nov, 2023
介绍了包含大规模多模态指令响应对的 MIMIC-IT 数据集,使用该数据集训练的 Otter 模型表现出出色的多模态感知、推理和语境学习能力,能有效地与用户意图保持一致。
Jun, 2023
在多语种环境下,我们对指令调优进行了系统研究,发现跨语言转移成功的关键在于超参数调整和足够的训练数据,虽然英文训练的大型语言模型能够生成其他语言的正确、全面和有帮助的回答,但其可信度较低且可能偶尔出现流畅性错误。
Feb, 2024
本文提出了一种基于联邦学习的指令调整方法,名为 FedIT,它可以利用客户端上存储的异构和多样化指令,保护隐私和确保数据安全,提高了 LLM 的性能,同时在 GitHub 上开发了名为 Shepherd 的基础框架,提供了探索异构指令下的联邦微调 LLM 的支持。
May, 2023
大语言模型(LLMs)在单个查询中难以遵循一系列指令,从而可能忽略或错误解释其中的一部分,这影响了它们在需要多个中间步骤的复杂问题(例如多语言(翻译然后回答)和多模态(字幕然后回答)任务)中的性能。我们通过使用开源 LLMs(如 LLaMA-2 70B 和 Mixtral-8x7B)进行实证验证。针对当今数据中顺序指令的稀缺性,我们提出了顺序指令调整,这是一种简单而有效的策略,用于自动增加指令调整数据并赋予 LLMs 执行多个顺序指令的能力。通过探索 Alpaca 等现有数据集中的交替指令和各种中间任务,我们发现,顺序指令调整模型在涉及推理、多语言和多模态能力的下游任务中始终优于传统的指令调整基线。为了进一步阐明我们的技术,我们分析了敌对中间文本、未见任务、提示语言的表达、任务数量和提示长度对顺序指令调整的影响。我们希望这种方法能为复杂任务的指令调整开辟新的研究途径。
Mar, 2024
模型导向的数据选择方法 (MoDS) 基于质量、覆盖度和必要性三个方面的考虑,从原始指令数据集中选择高质量的子集进行模型微调,以获得性能优于完整指令数据集的结果。
Nov, 2023