作为学习问题的法规合规评估
通过研究使用大型语言模型(LLMs)在代码审查中的作用,其中包括检测安全漏洞和验证软件功能的有效性,本文发现大型专有模型在这些任务上的性能显著优于小型开源模型,并证明了 LLMs 能够生成与真实漏洞相关的详细描述。
Mar, 2024
通过使用编译器作为教师,我们提出了 CompCodeVet,一种由编译器引导的 CoT 方法,用于从非可编译代码生成可编译代码。在两个开源代码数据集上对 CompCodeVet 的评估结果表明,CompCodeVet 具有改善 LLMs 训练数据集质量的能力。
Nov, 2023
该研究论文介绍了如何将大型语言模型用于编写机器人策略代码,并达成具有几何空间推理能力、可自主创新、精确且具备行为常识的策略,同时提供了对多个真实机器人平台进行演示和基准测试的代码和视频。
Sep, 2022
使用语言模型自动化构建可执行知识图谱以实现合规性,通过手动标记部分法规、训练 BERT 模型以及核心引用解析和语法分析,生成了一个存储在 Neo4j 数据库中的知识图谱,并展示了使用 Cypher 查询和图神经网络相结合的扩展性判决自动化系统的概念。
Feb, 2023
使用 CodeBERT 自动为 Java 代码分配质量评分,同时探索不同模型和训练范式对于代码质量评估的准确性,并使用新颖数据集评估预测的质量,发现基于 Transformer 模型的任务适应预训练方法比其他技术更高效地解决该任务。
Sep, 2023
AutoCommenter 是一个自动学习和执行编码最佳实践的系统,针对四种编程语言进行了实现和评估,结果表明其对开发者工作流程有积极影响,并述及了在大规模部署中所面临的挑战和相应的经验教训。
May, 2024
我们引入了一种多用途的代码漏洞分析系统 SecRepair,由一个大型语言模型 CodeGen2 提供支持,帮助开发人员识别和生成修复后的代码,并附带一个完整的漏洞描述和代码评论。我们的创新方法利用增强学习范式来生成由语义奖励机制增强的代码评论。研究结果强调,将增强学习与语义奖励结合起来,提高了模型在处理代码漏洞方面的能力和效果。
Jan, 2024
本文提出了一种名为 COMPCODER 的三阶段编译反馈机制,采用编译器反馈来生成可编译的代码,实验结果显示该方法的成功编译率从 44.18%提升至 89.18%。
Mar, 2022
利用深度学习的自动评分系统通过将程序文本输入转换为向量并利用多个模型进行分析,成功评估了 C 编程作业,取得了 1.89 的均方根误差。
Sep, 2023
提出了一种新的方法来自动评估和增强单个条款和建筑规范的机器可解释性,通过引入分类方法和有效的文本分类模型,实现了较高的性能提升,并提出了定量评估方法来评估建筑规范的整体解释性。
Sep, 2023