学习深度语义实现测试自动化
本研究旨在解决深度学习模型内存消耗大的问题,通过模块化的神经框架探索多种技术,并设计一种新颖的基于静态分析和细粒度令牌编码相结合的神经重排序模型,其消耗内存仅为6MB,计算单个补全所需仅8ms,最高精度达到90%。
Apr, 2020
本文提出了一种基于Transformer模型的方法,通过生成准确和有用的assert语句来支持开发人员编写单元测试用例,经实验证明,该模型在准确性和覆盖率上都具有较大的提升。
Sep, 2020
本文提出了CoDesc数据集,该数据集包含420万个Java方法和自然语言描述,其有效地提高了24%的代码搜索能力,并实现了代码总结的新的最先进水平。
May, 2021
本文研究使用预训练的代码语言模型Codex进行few-shot学习的三个代码操作和生成任务,实现手动开发工具所需的更少的工作量,并提供关于如何设计适当输入和影响模型大小的见解,结果表明few-shot语言模型是出乎意料地有效的,但还需要探索更多多样的提示方式来处理更多复杂的任务。
Jun, 2022
本研究旨在探索是否通过使用上下文数据使代码易于理解会提高预训练代码语言模型完成代码补全任务的性能,并建议在训练、微调或选择此类模型时做出适当的设计选择,以改善自动补全的实用性和准确性。
Apr, 2023
CAT-LM是一个使用27亿参数在Python和Java项目语料库上进行训练的新颖的预训练信号,通过考虑代码和测试文件之间的映射来生成与开发人员相似的测试代码,并且在生成测试完成时比更大的语言模型和最近的测试特定模型表现更好。
Oct, 2023
本文介绍了一种将模糊测试和大型语言模型相结合的新型数据增强技术 **FuzzAug**,用于增强神经测试生成数据集,从而提高代码生成模型的准确性和分支覆盖率,增强自动化软件测试的效用。
Jun, 2024
本研究针对现有单元测试生成方法在复杂真实软件开发情境下的局限,提出了一种新的测试生成与评估方案。我们的系统\textsc{AgoneTest}专注于类级测试代码的自动生成,并自动化了从测试生成到评估的全过程。研究显示,该系统能够有效提升测试质量,并为多种 Java 项目生成高效的测试套件。
Aug, 2024