基于临床笔记的合成患者-医生对话生成
本文介绍了我们在MEDIQA-Chat 2023共享任务中对于从医生-患者对话自动生成临床笔记的提交。我们报道了两种方法的结果:第一种微调共享任务数据上的预训练语言模型(PLM),第二种使用大型语言模型(LLM)进行少量样本的上下文学习(ICL)。两种方法在自动指标(如ROUGE,BERTScore)上均实现了高性能,并分别排名共享任务的二和一位。专业人士的审查表明,通过基于ICL的方法和GPT-4生成的笔记与人工书写的笔记一样受欢迎,这使其成为从医生-患者对话自动生成笔记的有前途的途径。
May, 2023
本研究使用GPT-3模型,将医学对话摘要问题离散成多个对话理解任务,并动态构建少样本提示进行实验,开发了基于GPT的度量标准,评估任务性能,经过研究评价证实,此方法生成的摘要临床准确性优于基准方法。
May, 2023
通过对医疗对话数据进行知识嵌入,该论文提出了一种新的流经下游应用后的对齐称为Dialogue-Based Knowledge Encoding(DBKE)技术来增强LLM中的知识库,该研究结论是采用开源模型进行医疗领域任务有望取代基于闭源模型的做法, 证明了该构架在医疗领域的作用。
May, 2023
本研究提出了一种 Dual Flow 增强型医疗对话生成框架 DFMed,通过提取对话历史中的医疗实体和对话行为来预测下一轮中要采取的实体和对话行为,模拟它们之间的转换,并使用两个顺序模型进行编码,运用交织组件增强协同作用,实验结果表明 DFMed 方法在自动评估和手动评估中均优于基线。
May, 2023
本文介绍了UMASS_BioNLP团队参加MEDIQA-Chat 2023任务A和任务C的情况,并提出了一种名为医生-患者循环的新型LLMs合作系统,以生成高质量的对话数据集。通过ROUGE、医学概念召回率、BLEU和自身BLEU等自动度量标准对方法进行了评估,并对其与ChatGPT和GPT-4进行了比较分析,同时探讨了利用合作LLMs生成高质量数据集的潜力。
Jun, 2023
提出了一种半自动对话生成框架DIALGEN,它使用语言模型(ChatGPT)迭代生成子对话,并使用人类反馈来纠正不一致性或重定向流程,以解决私人信息保护和成本的问题。通过结构化摘要代理人-客户信息收集通话的实验,展示了DIALGEN数据在模型性能提高方面的显著改进。
Jul, 2023
医生在每次患者访问后撰写的详细临床记录对医生和研究人员至关重要。利用语言模型自动化创建这些记录可以减轻医生的工作负担。本文介绍了NoteChat,一个利用大型语言模型生成基于临床记录的合成医患对话的协作多代理框架。NoteChat包括规划、角色扮演和润色模块。通过与OpenAI的ChatGPT和GPT-4等最先进模型进行全面的自动和人工评估,结果表明NoteChat促进了高质量的合成医患对话,突显了语言模型在医疗保健中的潜力。这项工作是多个语言模型合作完成以临床记录为条件的医患对话的首次示例,为人工智能与医疗保健的交叉领域提供了有前景的途径。
Oct, 2023
使用零样本和少样本提示策略,本研究评估了Llama 2 LLM创建合成医疗记录的能力,将其与需要敏感患者数据进行训练的精调方法进行比较,结果显示这种连贯思维提示方法允许零样本模型在Rouge评估指标上达到与精调模型相当的结果。
Mar, 2024
在本研究中,我们展示了一个小型开源语言模型(LLMs)可以有效地从门诊患者-医生对话中生成高质量的临床笔记,通过包括持续预训练、监督微调和强化学习在内的综合的领域和任务特定的自适应过程。我们通过增强方法DistillDirect,以Gemini Pro作为教师模型,在策略上进行了强化学习。我们的研究证明了训练较小、开源的LLMs以辅助临床文档编写的潜力和可行性,充分利用医疗机构对患者记录和领域专业知识的访问。
Apr, 2024
本研究解决了临床笔记草稿质量不足的问题,提出了一种新技术来模拟医生的对话风格和笔记偏好。此外,研究中引入了一种新方法,以便在缺乏足够临床笔记的情况下为新医生注册,而无需重新训练模型。结果表明,该技术在多个评估指标上明显优于基线模型。
Aug, 2024