探索 LLM 多智能体用于 ICD 编码
利用大型预训练生成语言模型开发出零样本和少样本编码分配的实用解决方案,通过信息提取,利用 ICD 本体论和专业临床编码任务描述,检索相关提及,并利用 GPT-4 在第二阶段进行元细化,实现了自动 ICD 编码的方法,无需任务特定的学习,而在更稀缺的类别上达到了最优的性能。
Oct, 2023
提出了一种基于大型语言模型(LLMs)的多学科协作(MC)框架,通过角色扮演的 LLM 代理参与协作多轮讨论,增强 LLM 的能力和推理能力,用于挖掘并利用 LLMs 中的医学专业知识和扩展其推理能力,同时在人类评估中找出常见错误并进行消融研究。
Nov, 2023
通过结合医学领域知识,采用多层结构的提示方法实现零 / 少样本上下文学习,并探索用户与大型语言模型的两种交流方式对诊断准确性和风险因素的影响。结果表明,大型语言模型通过域知识和定制化沟通策略能够显著提高诊断流程的准确性。研究还强调了在大型语言模型应用中优化训练样本数量和交流方式以提高准确性并减少偏见的重要性。
May, 2024
用大型语言模型进行临床决策支持和医疗编码任务,提出 LLM-codex 方法,通过两个阶段生成证据提案和基于 LSTM 的验证阶段,同时实现医疗编码精度、稀有编码准确性和句级证据识别的最新结果,无需依赖人工标注的数据证据。
Nov, 2023
EHRAgent1 是一个基于大型语言模型的代理人,通过代码接口实现自主生成和执行复杂临床任务的能力,并结合长期记忆和交互式编码与执行反馈来提高性能。在两个真实世界的电子健康记录数据集上的实验表明,EHRAgent1 相较于最强大的大型语言模型代理人基准表现分别提高了 36.48% 和 12.41%,使得自主代码生成和执行能够以最小限度的演示来处理复杂的临床任务。
Jan, 2024
使用大型语言模型,本研究探索将结构化的患者就诊数据(例如诊断、实验室和处方)转化为自然语言叙述的可行性,并提出了一种利用不同角色的语言模型代理(预测者代理和评论者代理)的新方法。结果表明,相比传统的监督学习方法,在基于电子健康记录的疾病预测中,使用该方法的大型语言模型能够实现相当不错的少样本性能,暗示其在健康相关应用中的潜力。
Mar, 2024
本文旨在分析预训练语言模型在自动 ICD 编码任务上表现不佳的原因,并提出了 PLMICD 框架来克服该问题,实验证明该框架在 ICD 编码任务上能够取得最先进的性能。
Jul, 2022
我们提出了一个多模态医疗协作推理框架 MultiMedRes,通过学习者代理从领域特定专家模型获取必要信息来解决医疗多模态推理问题,并在 X 射线图像的区别视觉问答任务中验证了方法的有效性。
May, 2024
本研究旨在解决将多标签分类任务转变为自回归生成任务的长尾挑战,通过引入新颖的生成自由文本的预训练目标,生成低维度的文本描述,从而推断出 ICD 代码,实验结果表明我们所提出的模型实现了新的 SOTA 表现,并设计了一种新的交叉关注再排序器来集成先前的 SOTA 和我们最佳的少样本编码预测。
Nov, 2022