本文介绍了一个新的自动生成生物医学科学综述文献简化版的任务,并通过分析各种挑战,实验和评估,展示了使用现代神经架构自动生成的简化版摘要可以达到良好的质量和可读性。
Dec, 2020
本研究介绍了 WisPerMed 团队在生物医学领域的自动文献概述共享任务中的工作,通过精细调整和使用 BioMistral 和 Llama3 模型,从复杂的科学文本中生成面向非专业人士的概述,最终在可读性、准确性和相关性方面实现了显著的性能提升。
May, 2024
本文系统总结了使用预训练语言模型( Pre-trained language models)的生物医学文本摘要的最新进展、挑战问题和未来方向,帮助我们更好地理解该领域的最新进展和使用预训练语言模型在生物信息学中的应用。
Apr, 2023
在本研究中,我们采用八个大型语言模型,在六个数据集和四个不同的摘要任务(放射学报告、患者问题、进展记录和医生 - 患者对话)上应用领域适应方法,系统评估了它们的效果,而且展示出最佳适应的大型语言模型的摘要相较于人工摘要在完整性和正确性方面更可取。此外,我们还将传统的自然语言处理指标与医生评分进行了相关性分析,以提高对这些指标与医生喜好的理解。最终,我们的研究证明了大型语言模型在多个临床文本摘要任务中超越人工专家,这意味着将大型语言模型整合到临床工作流程中可以减轻文档负担,使临床医生能够更多关注个性化患者护理和其他医学中不可替代的人工环节。
Sep, 2023
通过对十种不同的预训练方法、提示和模型规模的大型语言模型进行人类评估,我们发现指导调整而不是模型规模是 LLM 的零样本摘要能力的关键,并通过从自由职业作家收集的高质量摘要进行人类评估,得出 LLM 摘要被认为与人类撰写的摘要相媲美的结论。
Jan, 2023
本研究探讨了如何应用语言模型来改进医学文本的简化,提出了一种基于似然分数的新度量标准,并对编码器解码器模型的新方法进行了评估,同时建立了一些语料库。
Apr, 2021
使用各种大型语言模型自动生成代码片段的自然语言摘要,研究结果表明,代码语言模型优于其通用模型,而零 - shot 方法在训练集和测试集之间分布不同的数据集上取得了更好的结果。
Oct, 2023
通过使用特定于每篇文章的知识图谱来增加生物医学概念的详细信息,我们系统地调查了三种不同方法在提高自动化简报摘要模型效果方面的有效性,结果确认了整合基于图的领域知识可以显著改善生成文本的可读性和解释技术概念的能力。
大型语言模型在总结任务中表现出令人满意的性能,超过了参考摘要的基准,人类评估者明显偏好大型语言模型生成的摘要而不是人工撰写的摘要和经过微调的模型生成的摘要,因为大型语言模型生成的摘要具有更好的事实连贯性和更少的外在幻觉实例。
通过使用大型语言模型(LLMs)和一系列提示和检查步骤,我们首次采取行动缓解 RNA 科学中缺乏编辑时间的问题,生成非编码 RNA 文献的摘要,并证明可以自动生成高质量、事实准确的摘要以及准确的参考文献。
Nov, 2023