Mar, 2024

临床小蟒: 横向临床记录的生成式临床语言模型

TL;DR在医学领域,为了处理长期病例的复杂信息,我们引入了经过纵向临床笔记巨量预训练的专用语言模型ClinicalMamba,参数量为2.8亿,在建模扩展文本长度方面显示出比Mamba和临床Llama更优越的性能,且在纵向临床笔记信息提取任务中,通过少样本学习实现了快速而准确的成果,胜过了现有的临床语言模型和GPT-4等大规模通用领域模型。