MoTCoder: 模块化思维提升大型语言模型用于具有挑战性的编程任务
使用 LLM(大型语言模型)进行优化的最新研究使用迭代地从 LLM 中寻找下一步解决方案或直接提示 LLM 进行优化。然而,这些方法存在固有的局限性,包括低操作效率、对提示设计的高敏感性和缺乏领域特定知识。我们介绍了 LLaMoCo,这是一种第一个被设计为在代码级别上调整 LLM 以解决优化问题的指令调整框架。具体地,我们建立了一个包含明确定义的问题提示和有效优化代码的全面指令集。然后,我们开发了一种新颖的两阶段学习策略,在指令调整阶段之前,通过对比学习为模型的微调过程提供了一个热身过程,以增强其收敛行为。实验证明,通过我们的 LLaMoCo 进行精细调整的 CodeGen(350M)模型在合成和真实问题集上都实现了优于 GPT-4 Turbo 和其他竞争对手的优化性能。精细调整的模型和使用说明可在此 URL 中获得。
Mar, 2024
利用 MPCoder(多用户个性化代码生成器)通过明确的代码风格残差学习和隐式风格学习,训练多用户风格适配器进行对比学习,从而实现多用户个性化代码生成,同时提出了一种用于估计不同代码风格之间相似性的新型评估指标。实验结果证明了我们方法在这一新任务中的有效性。
Jun, 2024
通过开发针对特定领域的较小语言模型,我们质疑现有的语言模型选择,构建了一个针对高性能计算(HPC)领域的 MonoCoder 模型,它在非 HPC 和 HPC 任务中实现了类似甚至更好的性能,并在高性能和并行代码生成中取得出色结果。
Dec, 2023
使用大语言模型(LLMs),将代码更改从一种编程语言翻译成另一种编程语言,通过设计和实现名为 Codeditor 的第一个 LLM,我们发现它在所有常用的自动指标上都大幅超越了现有的方法,并且与现有的生成模型配合使用可以获得更好的性能。
Jul, 2023
通过引入一种具有自我评估功能的多样指令模型 (DolphCoder) 来增强预训练的 Code LLM 的代码生成性能,实现了卓越的 HumanEval 和 MBPP 基准性能,为未来的代码指令调优工作提供了新的见解。
Feb, 2024
使用多智能体提示的新方法进行代码生成任务,利用四个特定设计的语言模型代理模拟人类开发者在程序综合的全部周期中观察到的阶段,展示出优秀的代码生成能力并取得新的最先进结果。
May, 2024
Transformer-based language models are limited by a fixed window size, but this paper proposes L2MAC, a memory-augmented stored-program automatic computer that can generate long and consistent code surpassing the limitations of the context window, fulfilling complex user-specified requirements.
Oct, 2023
本文介绍了 WizardCoder,它利用 Evol-Instruct 方法将复杂的指令微调应用于代码领域,通过对四个主要的代码生成基准进行全面实验,揭示了该模型的出色能力,并超越了所有其他开源 Code LLMs,甚至在 HumanEval 和 HumanEval + 上表现出秀。
Jun, 2023
我们提出了 Chain of Code (CoT) 这一简单但非常有效的扩展方法,通过鼓励语言模型将语言子任务格式化为编程中的伪代码,以期改进语言模型驱动的推理,并通过 “思考代码” 的方式扩大语言模型能够正确回答的推理问题范围。
Dec, 2023