DolphCoder: 用多目标指令调整为特征的大型语言模型进行回声定位编码
使用 LLM(大型语言模型)进行优化的最新研究使用迭代地从 LLM 中寻找下一步解决方案或直接提示 LLM 进行优化。然而,这些方法存在固有的局限性,包括低操作效率、对提示设计的高敏感性和缺乏领域特定知识。我们介绍了 LLaMoCo,这是一种第一个被设计为在代码级别上调整 LLM 以解决优化问题的指令调整框架。具体地,我们建立了一个包含明确定义的问题提示和有效优化代码的全面指令集。然后,我们开发了一种新颖的两阶段学习策略,在指令调整阶段之前,通过对比学习为模型的微调过程提供了一个热身过程,以增强其收敛行为。实验证明,通过我们的 LLaMoCo 进行精细调整的 CodeGen(350M)模型在合成和真实问题集上都实现了优于 GPT-4 Turbo 和其他竞争对手的优化性能。精细调整的模型和使用说明可在此 URL 中获得。
Mar, 2024
我们提出了一个新的基准测试 CoDI-Eval,系统和全面评估 LLMs 对带有各种约束的指令的响应,揭示了它们在按照特定约束执行指令方面的局限性和开源与闭源 LLMs 之间存在显著差距。
Jan, 2024
通过将指令数据分类到 4 个与代码相关的任务,并提出了基于 LLM 的生成 - 判别器数据处理框架,从开源代码生成多样且高质量的指令数据,进而介绍了 CodeOcean,这是一个包含 20,000 个指令实例的数据集,用于增强指令调优的效果和优化精调模型的泛化能力,随后提出了 WaveCoder,一种针对增强指令调优的 Code LLM 的精调模型,通过实验验证 WaveCoder 模型在不同代码相关任务上具有较好的泛化能力,并且在以往的代码生成任务中表现出高效性。该论文对指令数据生成和精调模型的领域做出了重要贡献,为增强代码相关任务的性能提供了新的见解和工具。
Dec, 2023
本文介绍了 WizardCoder,它利用 Evol-Instruct 方法将复杂的指令微调应用于代码领域,通过对四个主要的代码生成基准进行全面实验,揭示了该模型的出色能力,并超越了所有其他开源 Code LLMs,甚至在 HumanEval 和 HumanEval + 上表现出秀。
Jun, 2023
AlchemistCoder 是一系列基于多源数据的 Code LLMs,采用 AlchemistPrompts 进行数据集和指令响应对的协调,同时将数据构建过程纳入 fine-tuning 数据,通过提升代码生成和泛化能力,显著超越其他同规模或更大规模模型,进一步推动代码智能的发展。
May, 2024
通过使用编码 - 解码原理,我们引入了 CodecLM,这是一个用于自适应生成与不同后续指令分布和大语言模型对齐的高质量合成数据的通用框架。在编码过程中,我们将种子指令转化为元数据,然后通过解码来创建定制的指令。我们还引入自我评分和对比过滤来定制数据样本,经过在四个开放领域指令遵循基准测试上的大量实验证明,CodecLM 相对于当前技术水平具有显著的效果。
Apr, 2024
本研究使用大型语言模型(LLMs)和 InstructCoder 数据集,探索用户指令下的代码编辑,涵盖评论插入、代码优化和代码重构等多个隐含任务。实验证明,在 InstructCoder 数据集上对开源 LLMs 进行精细调整,能够大多数情况下正确地编辑代码,展现了前所未有的代码编辑性能水平。
Oct, 2023
提出了一种名为 CodeT5 + 的编译器 - 解码器语言模型,具有灵活的组件模块和多样化的预训练任务,能够在不同的代码相关基准测试中取得最先进的结果,特别是在针对人类评估的代码生成任务中。
May, 2023
通过合适的指令调整,语言模型在指令 - 输出对的训练上能够更好地适应真实世界;研究发现,提供足够多样化的任务集合能够使其在训练分布之外的情况下具备泛化和鲁棒性,并且扩展调整指令集合能够提高代码生成的性能。
May, 2024
通过引入模块思维编码器(MoTCoder)框架,本研究针对大型语言模型在处理编程问题时的性能下降问题进行了研究,并提出了一种模块化指导下的任务分解方法,通过培育和利用子模块,显著提高了生成解决方案的模块化程度和正确性,从而在 APPS 和 CodeContests 上相对 pass@1 指标分别提升了 12.9% 和 9.43%。
Dec, 2023