采用预训练语言模型提高临床自然语言推理表现 —— 基于 MEDIQA 2019 的研究
介绍了 MedNLI 数据集的自然语言推理任务 (NLI),并提出了两种解决深度神经网络模型在特定领域泛化能力差的方法:利用开放域数据集进行迁移学习和结合外部数据和词汇来源的领域知识。实验结果表明,两种方法均可提高模型性能。
Aug, 2018
本文通过编制全面的生物医学 NLP 基准测试集,证明了在丰富的未标记文本的领域中,从头开始针对特定领域的预训练语言模型相对于持续预训练通用领域语言模型,能够显著提高生物医学 NLP 任务的效果,并发现一些常用做法不必要。我们为社区发布了我们的最新预训练和任务特定模型,并创建了一个包含我们的 BLURB 基准测试的排行榜。
Jul, 2020
本文通过使用领域专有词汇和大规模临床训练语料库,使用双向编码器解码器(BERT)模型对医疗语言推理任务进行分析和评估,与公共基准任务上同等规模的公开可用的最佳生物医学语言模型相比,我们的模型表现相同,并且在使用 UCSF 数据的两个任务的系统内评估中优于这些模型,但需要进一步的研究来提高缩写、数字、时间和隐含因果推理的准确性。
Oct, 2022
本文探讨了如何通过在特定领域数据上进行连续预训练,来适应领域特定需求,以提高医学自然语言处理任务的性能。实验证明,通过在临床数据或翻译文本上进行预训练已被证明是在医学领域适应性优化的可靠方法。
Apr, 2024
通过研究多语言神经网络模型,使用深度学习,如基于 Transformer 的结构,我们在临床文本机器翻译方面进行了调查。此外,为了解决语言资源不平衡问题,我们还使用基于大规模多语言预训练语言模型(MMPLMs)的迁移学习方法进行了实验。在临床案例(CC)、临床术语(CT)和本体概念(OC)等三个子任务上的实验结果表明,我们的模型在 ClinSpEn-2022 共享任务中的英语 - 西班牙语临床领域数据中表现出了最佳水平。此外,基于专家评估的人工评估结果显示,小型预训练语言模型(PLM)在临床领域微调中以大幅度优于其他两个超大型语言模型,这是该领域前所未有的发现。最后,迁移学习方法在我们的实验设置中运行良好,使用 WMT21fb 模型适应了预训练阶段在 WMT21fb 中未见的西班牙语语言空间,这值得进一步探索临床知识转化方面,例如研究更多语言。这些研究结果可以为特定领域的机器翻译开发提供一些启示,尤其是在临床和医疗领域。在我们的工作基础上可以开展进一步的研究项目,以改进医疗文本分析和知识转化。
Dec, 2023
本篇论文探讨了临床对话任务中自动化提取相关信息的挑战,提出了使用领域特定的语言预训练方法以提高对话理解的性能,结合具体的人类对话交互方式设计样本生成策略,实验结果表明该方法在低资源训练情况下取得良好表现。
Jun, 2022
本文介绍了针对西班牙语的生物医学和临床语言模型,通过实验不同的预训练选择和测试领域数据,生成可用于实际临床数据的模型,并通过对比 NER 任务,证实了进行特定领域的预训练对提高下游任务性能非常重要。
Sep, 2021
通过使用关键词训练一个深度学习架构,我们提出了一个不需要预训练与微调,可以直接应用于特定环境进行多标签分类的方法,该方法在文本分类中显著提高了性能,是一种有潜力的替代传统方法的有效选择,并在各种医学领域具有潜在应用。
Dec, 2023
通过实验研究表明相对较小的专业临床文本语言模型可在解析和理解电子健康记录方面显著优于大规模的综合性语言模型并且通过进行临床标记的预训练还可以实现更小、 更高效的专业化临床模型。
Feb, 2023