基于大型语言模型的软件规格自动综合
给出自动软件生成和配置的两个任务,第一个任务进一步分为两个子任务:用基于神经网络的适应度函数和程序跟踪与规范训练的遗传算法合成程序,用协方差矩阵适应演化策略合成程序;第二个任务是使用序列到序列深度学习机制从不同的输入文件(例如软件手册、配置文件、在线博客等)合成大规模软件的配置。
May, 2023
利用大型语言模型进行软件模型演化的研究,探索了大型语言模型在软件工程中支持软件模型演化的潜力,通过使用模拟模型仓库进行的实验评估,发现大型语言模型在软件模型演化方面有很大的潜力,并值得进一步探索。
Dec, 2023
使用大型语言模型进行科学综合、推理和解释,通过从科学文献综合知识,将其应用于预测分子属性等任务,提高了当前机器学习系统的性能,并能解释其预测结果,将加速科学发现的进程。
Oct, 2023
通过使用大型语言模型从自然语言中推导出严格的正式说明的方法,解决了手动编写正式规范的困难,从而提出了一个框架 nl2spec。
Mar, 2023
通过结合大型语言模型和符号分析,我们研究了如何合成 C 程序的规范。我们将大型语言模型与 Frama-C 生态系统中的两个形式方法工具(Pathcrawler 和 EVA)的输出相结合,生成 C 程序的 ACSL 规范注释。我们演示了符号分析对注释质量的影响,Pathcrawler 提供了更具上下文感知的注释,而包含 EVA 报告则提供了更适应运行时错误的注释。此外,我们证明该方法推断程序的意图而非行为,通过为有错误的程序生成规范并观察结果对错误的健壮性。
Jun, 2024
本文描述了一个支持扩展多模态交互的系统,通过使用大型语言模型 (LLMs) 将用户的英语语句映射到领域特定的代码,我们探索了 LLMs 在上下文敏感性方面捕捉演算发言者意图的程度。
Oct, 2023
使用大型语言模型 (LLMs) 驱动的代码生成在最近变得越来越流行。然而,自动生成机器学习 (ML) 任务的代码仍然面临着重大挑战。本文通过结合 LLMs 和自动化机器学习 (autoML) 来探索 ML 程序合成的极限,旨在完全自动化从数据准备到建模和后处理的整个 ML 工作流程的代码生成过程,只使用 ML 任务的文本描述。
May, 2024
研究评估了使用数据增强、后处理和代码生成模型 CodeT5 合成数学程序的效果,通过应用线性规划规则来评分和纠正光束,该方法基于自然语言规范实现自动化建模。实验结果表明,在使用这些增强方法后,CodeT5 基础版本的执行准确率为 0.73,明显优于 ChatGPT 的零 - shot 执行准确率 0.41 和 Codex 的 0.36。
Mar, 2023
本文研究了利用基于语义分析和综合技术的后处理步骤来增强大型预训练语言模型,并通过使用 Python Pandas API 的多模态输入来合成代码。
Dec, 2021