基于医生-患者对话的个性化临床笔记生成
通过使用深度总结模型生成SOAP注释,Cluster2Sent算法可以提取与每个总结部分相关的重要话语,并将相关话语聚集在一起,然后生成每个类别的一句总结。
May, 2020
本文介绍了开发医疗笔记生成系统的过程中所进行的三轮用户研究,包括如何适应临床实践、系统设计以及参与临床实践的临床医生对该系统的印象和看法,并发现了五种不同的记录行为、实时笔记生成的重要性以及自动生成笔记系统可能面临的几种挑战性情况。
May, 2022
本文介绍了我们在MEDIQA-Chat 2023共享任务中对于从医生-患者对话自动生成临床笔记的提交。我们报道了两种方法的结果:第一种微调共享任务数据上的预训练语言模型(PLM),第二种使用大型语言模型(LLM)进行少量样本的上下文学习(ICL)。两种方法在自动指标(如ROUGE,BERTScore)上均实现了高性能,并分别排名共享任务的二和一位。专业人士的审查表明,通过基于ICL的方法和GPT-4生成的笔记与人工书写的笔记一样受欢迎,这使其成为从医生-患者对话自动生成笔记的有前途的途径。
May, 2023
医生在每次患者访问后撰写的详细临床记录对医生和研究人员至关重要。利用语言模型自动化创建这些记录可以减轻医生的工作负担。本文介绍了NoteChat,一个利用大型语言模型生成基于临床记录的合成医患对话的协作多代理框架。NoteChat包括规划、角色扮演和润色模块。通过与OpenAI的ChatGPT和GPT-4等最先进模型进行全面的自动和人工评估,结果表明NoteChat促进了高质量的合成医患对话,突显了语言模型在医疗保健中的潜力。这项工作是多个语言模型合作完成以临床记录为条件的医患对话的首次示例,为人工智能与医疗保健的交叉领域提供了有前景的途径。
Oct, 2023
该研究引入了最先进的自然语言处理技术(具体为掩蔽语言建模预训练)和伪标记的方法,以应对临床病历评估的挑战,提高效率和性能,并改变临床病历评估的潜力。
Jan, 2024
使用PEGASUS-XTransformer模型,分析了两种不同的方法来生成SOAP记事单的不同部分,并在记事单的一致性方面进行了比较。通过人工评估发现,Llama2等LLM模型可以与人类评估者达成相同的结果,从而证明LLM的使用在捕捉由自动度量衡无法获取的质量指标上具有可扩展性。
Apr, 2024
在本研究中,我们展示了一个小型开源语言模型(LLMs)可以有效地从门诊患者-医生对话中生成高质量的临床笔记,通过包括持续预训练、监督微调和强化学习在内的综合的领域和任务特定的自适应过程。我们通过增强方法DistillDirect,以Gemini Pro作为教师模型,在策略上进行了强化学习。我们的研究证明了训练较小、开源的LLMs以辅助临床文档编写的潜力和可行性,充分利用医疗机构对患者记录和领域专业知识的访问。
Apr, 2024
研究考察了最先进的医患对话生成摘要模型在域外数据上的表现,将医患对话摘要模型分为两种配置,一种是通用模型,另一种是以SOAP部分生成摘要的模型。研究分析了基于微调语言模型和GPT的方法在两种配置上的局限性和优势,以及通过语言查询和词计数分析比较不同数据集中SOAP注释。结果显示,不同数据集中的参考注释之间存在很强的相关性,表明格式不匹配并非域外数据性能下降的主要原因。最后,还进行了SOAP注释的详细分析,以揭示模型引入的信息缺失和产生幻觉的性质。
Jun, 2024
本研究解决了训练医疗对话系统所需数据获取难题,尤其是在隐私问题的限制下。我们提出的合成对话生成方法SynDial,通过一次性大型语言模型和反馈循环,生成并优化高质量的合成对话。研究结果表明,生成的对话在事实准确性上优于基线模型,并且在多样性指标上与GPT4相当,具有显著的应用潜力。
Aug, 2024
本研究解决了临床笔记生成中人工书写效率低下的问题。我们提出了CliniKnote数据集和K-SOAP笔记格式,并开发了自动生成K-SOAP笔记的流程,显著提高了模型在临床笔记生成任务中的效率与表现。该工作为临床文档自动化提供了有效的工具和方法,具有重要的临床应用前景。
Aug, 2024