利用大型语言模型弥合领域知识与过程发现之间的差距
通过将LLMs的相关性和知识系统以及自动推理方法的分析精度和可靠性相结合,提出了大型过程模型(LPM),该模型将大大减少业务转型所需的时间和工作量,并能提供比以前更深入、更有影响力和更具操作性的见解。
Sep, 2023
利用大型语言模型(LLMs),引入DABL来检测业务流程中的语义异常,通过广泛的实验表明DABL在泛化能力和学习给定流程方面超过了现有最新的语义异常检测方法。用户可以直接应用DABL来检测其自己的数据集中的语义异常,并能用自然语言解释异常的原因,提供有价值的洞察。
Jun, 2024
通过对大型语言模型(LLMs)进行理解和监督微调,本研究详细探讨了LLMs在过程挖掘任务中的实用性和应用价值,包括语义异常检测和下一活动预测等领域,并提供了大量基准数据集进行评估实验。结果表明,在给定少量示例和上下文环境的情况下,LLMs在处理复杂过程挖掘任务时表现不佳,但经过微调后,在性能上明显优于较小的编码器模型。
Jul, 2024
提出了PM-LLM-Benchmark作为第一个全面的过程挖掘领域知识和不同实现策略的PM综合基准。我们观察到大多数所考虑的大语言模型可以以令人满意的水平执行一些过程挖掘任务,但面向边缘设备的小型模型仍然不足。我们得出结论,虽然提出的基准对于找到适合过程挖掘任务的大语言模型很有用,但需要进一步研究以克服评估偏差,并对竞争性大语言模型进行更全面的排名。
Jul, 2024
本研究解决了在商业流程管理领域中,基于规则和传统机器学习方法的信息提取不足的问题,探讨了大型语言模型(LLM)在文本过程描述中的应用潜力。通过一种创新的提示策略,我们展示了LLM在提取活动、参与者及其关系方面表现优于现有的机器学习方法,F1分数在三个不同数据集上实现了最高8%的提升,表明该方法具有广泛的适用性及显著的影响力。
Jul, 2024
本研究解决了软件测试过程中的维护成本和努力问题,提出了利用大型语言模型(LLMs)进行测试维护的创新方法。研究表明,通过多智能体架构,可以预测哪些测试用例在源代码更改后需要维护,从而显著提高测试维护的效率和质量。
Sep, 2024
本研究的核心问题是现有数据集缺乏足够的复杂性,无法有效评估大型语言模型(LLMs)在复杂工具使用场景下的表现。我们提出的ProcessTBench数据集,扩展自TaskBench,专门设计用于在过程挖掘框架中评估LLMs,显著提升了模型在多语言、同义句查询和并行动作管理方面的评测能力。此数据集的发布将推动LLMs在真实应用中的发展与研究。
Sep, 2024
本文解决了现有数据集中缺乏复杂场景的问题,尤其是在处理改述查询、多语言支持和并行执行的情况下。研究提出了ProcessTBench合成数据集,旨在评估大型语言模型在流程挖掘框架中的能力,为研究LLM在不同条件下执行同一过程的典型行为和挑战提供了重要工具。
Sep, 2024