生成式大型语言模型是全能文本分析引擎:文本对文本学习是您所需的全部
本文使用 2770 亿行混合临床和英文文本的 GPT-3 架构,开发了一种名为 GatorTronGPT 的临床生成 LLM,以提高医学研究的生物医学自然语言处理。通过使用 GatorTronGPT 训练的合成自然语言处理模型的生成文本,性能优于使用现实临床文本训练的模型。在医生的图灵测试中,医生不能区分 GatorTronGPT 所生成的文本和人类所生成的文本。该研究为 LLMs 在医学研究和医疗保健中的机遇和挑战提供了深入的见解。
May, 2023
开发用于大型语言模型的软提示学习算法,研究词干的形状、使用冻结 / 非冻结语言模型进行文字调优、迁移学习和少样本学习的能力。
Oct, 2023
利用软提示学习架构,该研究提出了一种新的方法来引导大型语言模型实现对患者信息的提取,评估了两种类型的语言模型在跨领域应用中的性能,并发现使用解码器模型进行软提示调优的结果更好。GatorTronGPT 在最佳 F1 得分上超过传统的 GatorTron 模型,分别在跨机构环境中提高了 8.9% 和 21.8%,在跨疾病环境中提高了 5.5% 和 14.5%。
Mar, 2024
通过结合临床领域特定知识图谱和大语言模型,在临床自然语言处理中提出了一种创新、资源高效的方法 ClinGen,通过临床知识提取和上下文信息化的大语言模型指导数据生成,持续提升性能,对生成训练实例的多样性和真实数据分布进行有效调整。
Nov, 2023
通过 prompt 调整,使用生成式大型语言模型(LLMs)概括医生与患者对话,证明了生成式临床 LLMs 调整对于医学自动文摘系统的效率。
Mar, 2024
基于大型语言模型(LLMs)的研究和应用在生物信息学领域有着巨大潜力和效力,该研究通过分析各种关键生物信息学任务,证明了 LLMs(如 GPT 变体)在给定适当提示的情况下可以成功处理大多数任务,同时也分析了在复杂生物信息学任务中的局限性。
Feb, 2024
通过使用人工智能的生成式大型语言模型,可以使其作为自主的循证医学的从业者,通过工具的使用与真实世界的医疗系统进行交互,并以符合指南的方式执行患者管理任务,这有可能通过进一步的改进来推动医疗的转型。
Jan, 2024
本文探讨了生成模型在零样本情况下从图数据生成描述性文本的能力,并与微调后的语言模型进行了比较,在两个图到文本数据集上评估了 GPT-3 和 ChatGPT 的性能。结果表明生成模型能够生成流畅和连贯的文本,AGENDA 和 WebNLG 数据集的 BLEU 分别达到 10.57 和 11.08。然而,我们的错误分析发现生成模型仍然难以理解实体之间的语义关系,并且倾向于生成存在幻觉或无关信息的文本。作为错误分析的一部分,我们使用 BERT 检测机器生成的文本,并实现了较高的宏 F1 得分。我们已公开提供生成模型生成的文本。
Jul, 2023
本文提出一种新的数据增广技术,利用大规模的语言模型从混合的样本中生成逼真的文本样本,并利用语言模型预测的软标签,从大规模语言模型中蒸馏知识并同时创建文本扰动,我们在多元化的分类任务上进行数据增广实验,并展示了该方法远远优于现有的文本增广方法,消融研究和定性分析提供了更多的见解。
Apr, 2021
GPT-4 在具有可控问题难度的三个算法任务中通过先进的提示技术展现了优越的准确性,证明了先进的大型语言模型在需要系统化泛化的挑战性任务中具备很强的基准性能。
Feb, 2024