本文提出一种基于 CodeBERT 的自动化程序修复方法,使用 ManySStuBs4J 小和大数据集对模型进行微调,能够准确地预测开发人员在 19-72%的情况下实现修复代码,并可以在不到一秒钟的时间内自动生成修复程序。
Mar, 2021
利用深度学习的自动评分系统通过将程序文本输入转换为向量并利用多个模型进行分析,成功评估了 C 编程作业,取得了 1.89 的均方根误差。
Sep, 2023
本研究探索预训练模型在软件工程任务中的应用,通过四项探测任务评估模型对代码特征信息的理解程度,发现不同预训练模型表现有差异,其中 BERT 表现出乎意料的优异,但还需要深入研究。
Aug, 2021
该研究提出利用预训练技术来自动化代码审查,使用 4 项专门为代码审查场景定制的预训练任务,建立了包含 9 种流行编程语言的大规模真实世界代码变更和代码审查数据集,并创建了基于这些数据的高质量基准数据集,针对与代码审查活动相关的 3 个关键任务进行评估,实验结果显示,该模型在所有任务中优于先前的最先进的预训练方法。
Mar, 2022
本文探讨评估 Transformer 模型微调来进行个性化编码生成,考虑三种方法:(i)自定义微调,(ii)轻量级微调,(iii)前缀微调,比较它们的效果和成本效益。
Aug, 2022
使用 Transformer-based 代码模型,提出完全自动化的测试框架,能够生成可编译和可读的单元测试,可以补充搜索 - based 测试生成的测试,并且能够覆盖开发人员编写测试中未覆盖的代码行。
Aug, 2023
本研究通过使用 DeBERTa 技术,对 53 年的开源数据集进行了自动故障调整的任务进行了量化和定性分析,结果表明 DeBERTa 是在开发者和组件分配等任务中最有效的技术。
Oct, 2023
本文研究了如何使用 Transformers 提取和利用源代码中的句法信息,完成代码自动补全、函数命名和 bug 修复等任务,实现了更好的模型性能。
Oct, 2020
探究如何利用预训练语言模型对自动程序修复进行改进,研究表明采用 PLBART 和 CodeT5 两种预训练模型 Fine-Tune 后,能在自然语言的程序修复数据集上显著提高性能,其中预训练机制对性能提升至关重要。
Apr, 2023
我们使用探测任务来检验预训练模型对源代码的学习程度,并发现结构信息对源代码的特征表示具有改进效果,同时发现 BERT 在某些探测任务上与源代码模型竞争力相当,暗示改进源代码特定的预训练有丰富的机会。
Dec, 2023