本文提出了一个基于现有进展的全面质量管理框架视角,并确定了软件工程研究的新领域,以实现更可靠的人工智能。
Jun, 2020
本研究旨在探讨人工智能技术在软件测试活动和方面中的影响,以及AI在软件测试领域未来的一些关键贡献和应用面临的挑战。
Jan, 2022
研究指出,现有的机器学习开发环境和 API 缺乏足够的指导及软件工程最佳实践,需要在专门开发的机器学习应用程序开发方面扩展和适应软件工程概念、工具和技术,并为机器学习特定的软件工程提供充足的研究机会。
Mar, 2022
讨论机器学习的软件测试以确保其正确性和可靠性,尤其是在安全关键应用中存在欺骗和错误等挑战,探讨六个关键挑战领域及其局限,提出继续研究方向。
Apr, 2022
利用遗传编程技术开发出一种新的自动化软件测试框架,生成可以重复生成输入值的微程序,从而快速高效地探索软件元件的输入参数范围,同时可应用于多种软件系统。
Feb, 2023
TestLab是一款智能自动化软件测试框架,它使用人工智能来收集一组测试方法并将其自动化,以允许对软件系统进行连续的多层级测试,包括从开发人员到最终用户的不同层次,增强了传统自动化软件测试,可以通过源代码分析自动生成测试用例,旨在加速软件开发周期并减少漏洞
Jun, 2023
机器学习软件系统的测试与评估(T&E)是具有挑战性的,需要新的系统测试方法、适应度测量和指标以解决系统整个生命周期中的T&E难题。
Oct, 2023
我们进行了第一项细致入微的实证研究,以填补现有研究中对机器学习软件测试实践的知识空白,从而识别机器学习质量属性、测试策略以及它们在机器学习工作流中的实施。
Dec, 2023
应用机器学习技术研究软件工程领域的现状,特别关注软件质量保证、软件维护、软件理解和软件文档等方面。
Jun, 2024
本研究针对传统测试用例生成与验证方法在时间延长、人工错误、测试覆盖不足及高昂成本等方面的挑战,提出了基于人工智能的解决方案。该方法通过自动化生成全面测试用例和实时适应变化,显著提升回归测试效率,扩展测试覆盖面,并减少人工干预,为软件发布提供更快更可靠的支持。
Sep, 2024