AutoScrum:利用大型语言模型自动化项目规划
该研究探讨了在奥地利邮政集团信息技术敏捷团队中利用大型语言模型自动改善用户故事质量的方法,并基于自主的 LLM-Agent 系统开发了参考模型,并将其应用于公司。通过对六个敏捷团队的 11 名参与者进行用户故事质量评估,我们的研究结果证明了 LLMs 在提高用户故事质量方面的潜力,为敏捷开发中人工智能角色的研究做出了贡献,并提供了人工智能在行业环境中具有转变性影响的实际示例。
Mar, 2024
该研究介绍了 AutoSurvey,这是一种快速而有组织的方法,用于自动化创建在人工智能等快速发展领域中的综合文献调查。AutoSurvey 通过初始检索和大纲生成、专门的大语言模型进行的分段起草、整合和完善,以及严格的评估和迭代来解决信息数量和复杂性带来的挑战。研究做出了全面的解决方案,提出了可靠的评估方法,并通过实验证实了 AutoSurvey 的有效性。
Jun, 2024
我们提出了一种新颖的平台,用于评估大型语言模型(LLMs)自主撰写和评论跨科学、人文、教育和法律等各个学科的调研论文的能力。这个框架中,人工智能系统通过模拟同行评审机制进行操作,类似于传统学术期刊,人类组织者担任编辑监督职责。在这个框架内,我们为 2023 年 AutoML 会议组织了一次竞赛。参赛者的任务是根据指定提示撰写独立的文章,并对其进行评估。评估标准包括清晰度、参考文献适当性、责任性和内容的实质价值。本文介绍了竞赛的设计,包括实施基线提交和评估方法。
Oct, 2023
使用大型语言模型 (LLMs) 驱动的代码生成在最近变得越来越流行。然而,自动生成机器学习 (ML) 任务的代码仍然面临着重大挑战。本文通过结合 LLMs 和自动化机器学习 (autoML) 来探索 ML 程序合成的极限,旨在完全自动化从数据准备到建模和后处理的整个 ML 工作流程的代码生成过程,只使用 ML 任务的文本描述。
May, 2024
大型语言模型在软件设计中的应用,特别是基于 LLM 的人工智能代理对开发工作量的评估提出了挑战,通过 UI 界面用户故事的比较,提出了一种改进自然语言问题规范的方法,考虑了数据源、接口和算法来评估开发工作量。
Feb, 2024
本文描述了一个支持扩展多模态交互的系统,通过使用大型语言模型 (LLMs) 将用户的英语语句映射到领域特定的代码,我们探索了 LLMs 在上下文敏感性方面捕捉演算发言者意图的程度。
Oct, 2023
基于大型语言模型的自动统计模型发现方法,在预先制定的模型空间、开放式空间和自然语言约束下,能够与人类专家设计的模型媲美,并以可解释的方式扩展经典模型的性能,具有很大的潜力。
Feb, 2024