Mar, 2024

开发医疗语言模型嵌入空间

TL;DR我们探索专门为不同医疗数据集调整较小的大型语言模型(LLMs)的专业预训练方法。我们通过传统的掩码语言建模、无监督文本表示的深度对比学习(DeCLUTR)以及利用医疗设置中的元数据类别的新型预训练目标进行了评估。对每个数据集进行了对下游文档分类任务的评估,并分析了生成的嵌入空间。对比训练的模型在分类任务上表现优于其他方法,以有限的标记数据实现了强大性能,并且所需的模型参数更新更少。虽然基于元数据的预训练无法进一步改进数据集上的分类,但它提供了有趣的嵌入簇可分离性。所有领域适应的 LLMs 在性能上均优于公开可用的通用基础 LLM,验证了领域专业化的重要性。这项研究展示了在有限的计算预算下将医疗能力注入紧凑的 LLMs 的高效方法,这是在本地医疗环境中负责任和可持续部署的关键能力。我们提供专门针对医疗 LLMs 的预训练指南,推动对对比目标的持续研究,并演示了将小型 LLMs 与涉及隐私敏感的医疗任务保持一致的适应技术。