自编码对齐:代码生成的自对齐方法
使用Self-Instruct框架,可以将预训练模型与指令对齐,提高模型的指令遵循能力,无需过多人为指令数据,可用于finetuning,大大提高了模型的通用性。
Dec, 2022
提出了一种名为AutoKnow的新型两步流程,将LLMs作为知识提供者和自我反思程序员,通过从输入提示中获得知识并根据生成的知识生成中间代码,并存在解释器中接收错误消息,从而使LLMs成为专业编程人员,从而成功完成编程,有效提高了二者的表现。
Jun, 2023
我们提出了一个新的基准测试CoDI-Eval,系统和全面评估LLMs对带有各种约束的指令的响应,揭示了它们在按照特定约束执行指令方面的局限性和开源与闭源LLMs之间存在显著差距。
Jan, 2024
指令调优在大规模代码语言模型(Code LLMs)中对程序合成任务至关重要。本文提出一种名为Semi-Instruct的方法,通过将自然指令中不规范代码转化为正确的指令-代码对,并设计了一种新颖的测试用例构建方法来验证生成代码的正确性。实验结果显示,Semi-Instruct方法在数据规模增加时性能稳定提高。
Mar, 2024
通过使用编码-解码原理,我们引入了CodecLM,这是一个用于自适应生成与不同后续指令分布和大语言模型对齐的高质量合成数据的通用框架。在编码过程中,我们将种子指令转化为元数据,然后通过解码来创建定制的指令。我们还引入自我评分和对比过滤来定制数据样本,经过在四个开放领域指令遵循基准测试上的大量实验证明,CodecLM相对于当前技术水平具有显著的效果。
Apr, 2024
AlchemistCoder是一系列基于多源数据的Code LLMs,采用AlchemistPrompts进行数据集和指令响应对的协调,同时将数据构建过程纳入fine-tuning数据,通过提升代码生成和泛化能力,显著超越其他同规模或更大规模模型,进一步推动代码智能的发展。
May, 2024
通过在自身生成的数据上fine-tune,而非查询封闭源语言模型,进一步改进了指令调优的代码大型语言模型。借鉴正式语言和非正式语言翻译的错位现象,引入了INVERSE-INSTRUCT,从代码片段中总结指令。通过代码概括和自我评估,改进了基于指令调优语言模型的性能,其通过Python文本生成代码、多语言编码以及数据科学代码生成等多个基准测试中展现了优异表现。
Jul, 2024
本研究解决了代码生成大语言模型在指令调优方面缺乏有效自我对齐的方法问题。提出的SelfCodeAlign方法通过无监督生成的任务和高质量示例,显著提高了模型的编程能力,最终生成的模型在多个基准测试中表现优于先前的最佳方法,表明该方法具有广泛的适用性和潜在影响。
Oct, 2024
本文解决了当前大型语言模型(LLMs)在特定任务中的低效率及过度泛化的问题。提出的创新框架CodeLutra通过比较正确与错误的代码生成及迭代学习机制,显著提高小型开源模型的表现,能够在多种代码生成任务中接近或超越GPT-4的性能。这一方法突显了在代码生成领域缩小开源与闭源模型差距的潜力。
Nov, 2024