ProcessGPT:用生成人工智能改变商业流程管理
GPT (Generative Pre-trained Transformer) 是一种人工智能和自然语言处理技术,能够自动生成文本。本文主要研究了将 GPT 语言模型应用于大学教学的各个方面,包括学生和教师活动的创新、内容理解与生成、问题解决、个性化和试卷批改等。同时,作者还在软件工程等领域进行了详细实验,评估了 ChatGPT 作为助理工具在理论活动、习题和实验实践中的潜在应用价值。
Mar, 2024
提出了一种使用大型语言模型将条件流程树 (CPT) 转换为业务流程文本概述 (BPTS) 的方法,通过拆分困难的 CPT 并逐个解决,实现了 93.42% 的正确率,比传统提示方法提高了 45.17%,解决了在无数据集情况下进行业务流程文档生成的问题,并有潜力为过程模型提取领域提供大量数据集。
Sep, 2023
本文提出了一种基于大规模生物医学文献预训练的领域特定生成 Transfomer 语言模型 ——BioGPT,用于生物医学领域的自然语言处理任务,结果表明 BioGPT-Large 在 PubMedQA 任务上取得了 81.0% 的准确率,并提高了 BC5CDR、KD-DTI 和 DDI 关系提取任务的 F1 得分。
Oct, 2022
TrackGPT 是一种基于 GPT 的模型,可用于实体轨迹预测,并在测距和空间两个领域表现出强大的性能,同时保持领域无关性和最小化数据特征要求。
Jan, 2024
该研究通过将 ChatGPT 等 Large Language Models(LLMs)集成到过程挖掘工具中,引入了一种新颖的方法,使过程分析对更广泛的受众更易于访问,以便将复杂数据转化为可行的见解。研究旨在调查 ChatGPT 如何增强分析能力,改进用户体验,提高可访问性以及优化过程挖掘工具的架构框架。该研究的关键创新在于为每个过程挖掘子模块开发了一个定制的提示工程策略,确保人工智能生成的输出准确且与上下文相关。
May, 2024
该论文通过案例研究比较了基于生成模型的聊天机器人(如 GPT 和 PaLM)在过程执行支持中的表现,揭示了使用会话式方法支持生成聊天机器人作为理解过程感知建模符号并协助用户执行任务的挑战性问题。
Nov, 2023
我们介绍了一种名为 GraphGPT 的自我监督建模方法,该方法通过将图或抽样子图转化为表示节点、边和属性的可逆令牌序列,并使用欧拉路径优先进行预训练,最后通过监督学习任务进行微调,该模型在大规模分子数据集 PCQM4Mv2、蛋白质相互作用数据集 ogbl-ppa 以及开放图基准数据集 ogbn-proteins 上取得了接近或优于现有方法的结果,并且能够训练超过 400M 个参数的 GraphGPT,具有一致提升的性能,这超出了 GNN 和先前的图变换模型的能力。
Dec, 2023
该研究对多个 Transformer 模型进行基准测试,展示了这些模型如何从新闻事件中判断情感。这个信号随后可用于下游建模和商品交易的信号识别。我们发现,在这一任务中,微调的 BERT 模型优于微调或原版的 GPT 模型。研究还提出了 CopBERT 模型,它在域特定的 BERT 训练模型(如 FinBERT)的性能上表现更好。综上所述,BERT 模型可能不会成为下一个 XGboost,但对于需要融合可解释性和准确性的金融工程任务来说,它代表了一个有趣的选择。
Apr, 2024
基于机器学习模型对文本数据进行评分的使用已广泛应用于自然语言处理、信息检索、搜索和推荐以及在线内容的可信度评估等领域。这项研究通过实证评估以人工创作和生成预训练变换器(GPT)的文本评估模型之间的差异,发现转换器预训练语言模型(PLM)相对于传统的深度学习和基于特征的机器学习模型更准确地评分人工文本质量,但相对于人工创作的文档,GPT 生成的文本评分平均要高出 10-15%。这一研究对于文本分类设置中的自动评分受到生成 AI 的干扰具有重要的意义。
Sep, 2023
本研究对 GPT 模型在机器翻译方面的表现进行了全面评估,涵盖了许多方面,如与最新研究和商业系统的不同 GPT 模型的质量比较,提示策略的效果,域转换和文档级翻译的鲁棒性。实验覆盖了 18 个不同的翻译方向,包括高资源和低资源语言以及非以英语为中心的翻译,评估了三个 GPT 模型:ChatGPT,GPT3.5 (text-davinci-003) 和 text-davinci-002。实验结果表明,对于高资源语言,GPT 模型达到了极具竞争力的翻译质量,而对于低资源语言的能力却有限,同时也证明了混合方法(将 GPT 模型与其他翻译系统相结合)可以进一步提高翻译质量。我们进行了全面的分析和人工评估,以进一步了解 GPT 翻译的特点。我们希望我们的论文为研究人员和实践者提供有价值的见解,并有助于更好地理解 GPT 模型在翻译方面的潜力和局限性。
Feb, 2023