Mar, 2024

临床小蟒:横向临床记录的生成式临床语言模型

TL;DR在医学领域,为了处理长期病例的复杂信息,我们引入了经过纵向临床笔记巨量预训练的专用语言模型 ClinicalMamba,参数量为 2.8 亿,在建模扩展文本长度方面显示出比 Mamba 和临床 Llama 更优越的性能,且在纵向临床笔记信息提取任务中,通过少样本学习实现了快速而准确的成果,胜过了现有的临床语言模型和 GPT-4 等大规模通用领域模型。