Apr, 2024

面向专家级临床笔记生成的开源大型语言模型的适应性

TL;DR在本研究中,我们展示了一个小型开源语言模型(LLMs)可以有效地从门诊患者-医生对话中生成高质量的临床笔记,通过包括持续预训练、监督微调和强化学习在内的综合的领域和任务特定的自适应过程。我们通过增强方法DistillDirect,以Gemini Pro作为教师模型,在策略上进行了强化学习。我们的研究证明了训练较小、开源的LLMs以辅助临床文档编写的潜力和可行性,充分利用医疗机构对患者记录和领域专业知识的访问。