- EHRmonize: 使用大型语言模型从电子病例中抽取医学概念的框架
EHRmonize 利用大型语言模型从电子健康档案中提取医疗概念,具有提高效率、减少标注时间的潜力,但仍需要临床专业医生的监督。该框架可作为一个 Python 包提供,有望加速健康研究和改善数据整合过程。
- MedConceptsQA -- 开源医学概念问答基准
我们介绍了 MedConceptsQA,这是一个专门用于医学概念问答的开放源码基准。该基准包含了不同词汇的各种医学概念问题:诊断、手术和药品。我们对该基准进行了使用各种大型语言模型的评估。我们发现,尽管经过医学数据的预训练,预先训练的临床大 - 医疗的声音:利用大型语言模型提高医学转录自动语音识别准确性
本研究探讨了大型语言模型(LLMs)在医学转录中提高自动语音识别(ASR)系统准确性的潜力,通过使用 PriMock57 数据集对 ASR 生成的转录进行改善,改进了一般词错误率(WER)、医学概念错误率(MC-WER)和音频流分离准确性, - 断言检测大型语言模型上下文学习 LoRA 微调
通过使用基于大量医学数据预训练的大型语言模型(LLMs)和先进的推理技术,我们介绍了一种用于检测医学概念的断言的新方法,该方法在传统方法的基础上进一步优化,并在无结构的临床文本中取得了良好的性能。
- UMLS 知识图谱上的多模态图学习
机器学习在医生对病人的发展趋势获得洞察力方面受到越来越多的关注。我们提出了一种名为多模态 UMLS 图神经网络学习(MMUGL)的新方法,用于使用基于统一医学语言系统的知识图上的图神经网络学习医学概念的有意义的表示。这些表示被聚合表示整个病 - MD-Manifold: 基于医学距离的表征学习方法,用于医学概念和患者表征
MD-Manifold 是一种新颖的医学概念和患者表示法的框架,结合了数据增强方法、概念距离度量和患者网络,将关键的医学领域知识和先前数据信息纳入医学任务中,能够更准确地反映医学知识和患者特点,并在各种下游医学数据分析任务中优于其他现有技术 - 利用医疗概念丰富无监督用户嵌入
本研究提出了一种概念感知的无监督用户嵌入方法,结合来自 MIMIC-III 和 Diabetes 两个临床语料库的文本文档和医学概念,用于疾病诊断和病人特征研究等领域,实验证明该方法的性能明显优于现有的无监督方法。
- ImageCLEFmed Caption 2020 任务的竞争性深度神经网络方法
本文介绍了利用深度神经网络方法解决 ImageCLEFmed Caption 任务的过程,最终在不使用外部医学知识或预先训练模型的情况下,对 3,534 张放射学图像进行了医学概念的自动标注,得到了 F1 得分 0.375,排名第 12 位 - 基于多视图影像融合和医学概念增强的自动放射学报告生成
提出了一种基于深度学习技术的生成式编码解码模型,通过对大量胸部 X 光图像进行预先训练并提取医疗概念,结合词级别的注意力机制,成功生成精准较为自然的放射学报告。
- ClinicalBERT:医疗记录建模和医院复诊预测
本文使用双向转换器(ClinicalBERT)开发和评估了临床笔记的表示方法,该方法发现了医学概念之间的高质量关系,并在 30 天医院再入院预测方面优于基线,使用的数据为出院小结和重症监护室的前几天的笔记。
- 从大规模多模态医学数据中学习的临床概念嵌入
使用大规模多模态医疗数据集,本文提出了一种新的 cui2vec 医疗概念词嵌入模型,并通过统计功率法进行了评估,结果表明该模型在大多数情况下相对于之前的方法具有最先进的性能。
- 医学概念的多层表示学习
本研究提出了一种基于电子病历数据的的 Med2Vec 方法,通过学习医学代码和访问的分布式表示形式,利用序列访问顺序和访问内部代码的共现关系提供临床医生可验证的基础, 在关键医学应用中显示出与流行基线(如 Skip-gram、GloVe 和 - 从电子健康记录中学习医疗概念表示,并在心力衰竭预测中应用
本文提出了一种将电子健康记录中的医疗概念和患者转化为临床有意义的构建特征的基于数据驱动的方法,从而通过时间关系来学习医学概念的表示和病人向量,达到对诊断和治疗的性能优化。
- MM医学语言嵌入的知识转移
该研究使用分布语义学将结构化知识图谱与非结构化文本相结合,利用概率生成模型预测医学概念之间的新关系,进一步证明该方法可用于医学领域的数据稀缺性问题。