VisualCheXbert:解决放射学报告标签和图像标签之间的差异
本文介绍了一种基于BERT的医学图像报告标注方法,利用了可用规则系统的规模和专家注释的质量,经过预训练和微调得到的CheXbert模型,在胸透数据集上表现优异,超过了以往最好的规则系统,成为该领域最先进技术。
Apr, 2020
该论文提出了一种基于交叉模态检索的自动医学图像报告生成方法,该方法可以从报告中识别异常发现,并将它们与无监督聚类和最小规则分组,通过使用提出的有条件构建的视觉-语义嵌入进行图像和小粒度异常发现对齐,其能够更好地检索异常发现并在临床正确性和文本生成度量方面优于现有的生成模型。
Oct, 2020
本文介绍了RadGraph数据集,这是一个基于新的信息提取模式设计的全文胸部X射线放射学报告中实体与关系的数据集。作者还发布了与之相关的开发、测试和推理数据集,并训练了一个深度学习模型——RadGraph Benchmark,该模型在MIMIC-CXR和CheXpert测试集上分别达到0.82和0.73的微F1得分。这些数据集可用于医疗自然语言处理、计算机视觉和多模态学习等领域的研究。
Jun, 2021
本研究探索了使用基于规则的标签机器人进行弱监督的深度学习标签预测模型的潜力,并提出了一种深度学习的 CheXpert 标签预测模型,该模型在基于规则的德国 CheXpert 模型标记的报告上进行了预训练,并在少量手动标记的报告数据集上进行了微调。结果表明,本方法的有效性显著优于基于规则的模型,并强调了即使在稀疏数据场景下,采用深度学习模型的好处和规则标记器作为弱监督工具的用处。
Jun, 2023
本研究提出了一种基于自动医学图像解释的生成式语言模型的方法,用于从胸部X线图像中检测异常区域并生成相应文本,以降低放射科医生在撰写或叙述发现结果方面的工作量。
Jun, 2023
本文提出了一种基于模板的方法,通过使用多标签图像分类器,变换器模型和BERT多标签文本分类器,还有规则系统从放射学图像中生成放射学报告,并在实验中通过IU Chest X-ray和MIMIC-CXR数据集表现出比现有技术模型更好的性能。
Jun, 2023
通过使用设计精心的提示,我们展示了GPT作为熟练标注器的潜力。利用只有GPT标记的数据,我们训练了基于BERT的标注器CheX-GPT,其操作速度更快、更高效。为了评估标注器的性能,我们引入了一个公开可用的专家标注测试集MIMIC-500,包含来自MIMIC验证集的500个案例。我们的研究结果证明了CheX-GPT不仅在标注准确性上优于现有模型,而且在效率、灵活性和可扩展性方面也表现出色,得益于我们引入的MIMIC-500数据集进行强大的基准测试。代码和模型可以在此链接找到。
Jan, 2024
使用MAPLEZ方法,使用基于规则的系统从CXR报告中提取和增强发现标签,包括存在性、位置、严重程度以及放射科医生对发现的不确定性,并在分类监督中取得了显著的模型质量提升
Mar, 2024
通过提取高质量的事实陈述来改善文本编码器的表示并提高在各种下游任务中的性能,研究文章介绍了一种针对医学领域等专业领域中表征学习的新颖两阶段框架。
Jul, 2024
本研究解决了医学数据集注释费时费力的问题,提出了一种新颖的方法,即利用现有的人工智能模型自动评估标签质量,而非从头开始创建注释。通过引入名为“标签评论员”的工具,研究表明它能够将手动注释工作时间大幅减少,提升了标签的准确性,使得最佳AI标签可以直接作为数据集的黄金标准,从而显著减轻放射科医师的负担。
Nov, 2024