提升代码大型语言模型的自然语言能力
使用各种大型语言模型自动生成代码片段的自然语言摘要,研究结果表明,代码语言模型优于其通用模型,而零 - shot 方法在训练集和测试集之间分布不同的数据集上取得了更好的结果。
Oct, 2023
通过改善数据质量,例如进行代码转换和模块化,自然语言生成代码的性能可以得到显著提升。研究结果还表明,使用较少但高质量的数据进行模型微调可以优于在原始数据集上进行微调。
Nov, 2023
研究发现在 LLMs 生成代码时,它们所关注的自然语言描述与人类程序员的关注点不一致,而一个基于扰动的计算方法的注意力最大程度地与人类注意力一致,说明我们需要更符合人类关注点的 LLMs 以提高代码生成的可解释性和程序员的信任度。
Jun, 2023
基于大规模语言模型的代码生成领域的综述,介绍了对 LLMs 在代码生成领域的最新进展、数据处理、性能评估、实际应用,对学术与实践之间的差距进行了分析,提出了关键挑战和机遇,并提供了一个资源网站以记录和传播该领域的最新进展。
Jun, 2024
该研究论文综述了自然语言处理技术的利用,重点关注使用大型代码训练的基于 Transformer 的大型语言模型在 AI 辅助编程任务领域中的应用。这些模型在包括代码生成、代码补全、代码翻译、代码概述、缺陷检测和克隆检测等 AI 辅助编程应用中扮演着关键角色,而其中值得注意的例子包括由 OpenAI 的 Codex 和 DeepMind AlphaCode 提供支持的 GitHub Copilot。本文概述了主要的大型语言模型及其在与 AI 辅助编程相关的下游任务中的应用,并探讨了在这些应用中结合 NLP 技术和软件自然性面临的挑战和机遇,同时讨论了将 AI 辅助编程能力拓展到苹果的 Xcode 移动软件开发环境中的问题和机会,以使开发人员能够获得更先进的编码辅助,并使软件开发流程更加高效。
Jul, 2023
我们研究了大型语言模型的编程技能对其性能的影响,并引入了一种新的数据增强方法和筛选策略来提高预训练数据在代码相关的语言模型性能上的表现。实验证明,使用增强数据训练的模型在两个广泛使用的编程技能评估上的表现优于生成评论的模型和没有使用增强数据进行训练的模型。
Feb, 2024
本文提出利用 Code-LLMs 如 Codex 代替 NL-LLMs,通过设计以代码为形式的提示和将 IE 任务制定为代码生成任务,有效地解决了信息提取任务的难题,并在七个基准测试中显示其优越性。
May, 2023
利用对最近的大型语言模型进行了代码测试的详尽分析,本研究展示了这些模型的一系列有趣性质,并展示了如何改进大型语言模型的程序测试能力,通过利用生成的测试用例来提高合成程序的质量,相较于 GPT-3.5-turbo 和最新的最先进技术,我们的方法在 HumanEval + 上的代码通过率分别提高了 11.77% 和 4.22%。
Oct, 2023
使用自然语言作为一种新的编程语言来描述任务过程,让其易于被人类和 LMMs 理解,并进一步借助 Learning to Program (LP) 方法通过学习来自训练集中的自然语言程序,优化复杂任务的问题解决能力,该方法在 AMPS 和数学两个数据集上的有效性得到验证,证明其性能超过直接零样本测试表现 18.3%。
Apr, 2023
本文研究了大型语言模型在现实场景中自然语言描述的变化对于代码生成的影响,并提出了一个自动化框架 NLPerturbator 来对不同类别的描述进行扰动,发现扰动后的描述可以显著降低代码生成的性能。研究强调了提高大型语言模型对于现实场景中描述变化的鲁棒性的重要性,以及构建描述时的细致性。
Jun, 2024