基于 Vision Transformer 技术对胸部 X 光图像进行分析以提高 COVID-19 诊断
COVID-19 检测中,迁移学习结合视觉变换器是一种有效的方法,并且在实验中显示出了优于传统方法和卷积神经网络的表现,这证明了视觉变换器在改进临床筛查和诊断的效率和准确性方面具有潜力。
Jul, 2023
本论文提出了一种创新的 Vision Transformer 算法用于诊断和量化 COVID-19 的严重程度,通过使用基础网络提取常见的胸片异常结果,并利用其嵌入特征作为 Transformer 模型的语料库,实现了针对 CXR 的目标。实验结果显示,该模型在诊断和严重程度量化任务上具有卓越的泛化能力和最先进的性能,这是广泛部署所必需的。
Apr, 2021
本文研究了使用迁移学习的方法,通过根据 VGG-16 和 VGG-19 的经典体系结构进行分类器块与超参数调整,以自动检测胸部 X 光图像中的 COVID-19。实验结果展示了迁移学习在医学成像领域中的实用性,不仅可以防止过拟合和收敛问题,还可以获得最优的分类性能。
Apr, 2023
本文通过建立可解释的视觉 Transformer 深度学习技术,旨在基于胸部 X 线片预测 COVID-19 肺炎的诊断结果,以期进行更快速、准确和规范的人群筛查,通过对病人的三维数据进行二分类的训练,分析和探究了两种深度学习方法,即建立在传统卷积神经网络(CNN)基础上的 DenseNet 和基于关注模型的视觉 Transformer,结果表明视觉 Transformer 表现更佳,F1 分数为 0.76。
Jul, 2021
本研究旨在研究利用深度学习技术对 X 光胸片进行 COVID-19 肺炎自动检测的实用性,该网络训练的准确率、精确率、敏感性和特异性均较高,可作为 COVID-19 快速筛查工具的一种替代方案。
Mar, 2020
研究利用卷积神经网络和胸部 X 射线图像对 COVID-19 进行快速而可靠的诊断,结果表明,使用三层卷积层的 CNN 模型可以高达 96% 的精度进行 COVID-19 的筛查。
Sep, 2021
本研究旨在构建一个多来源的 X 线与 CT 扫描图像的综合数据集,在其中运用深度学习和迁移学习算法构建出高效、响应迅速的 COVID-19 诊断方法,实验表明该方法可以达到 98% 预训练网络准确率和 94.1% CNN 修改准确率。
Mar, 2020
提出了一种基于统计分析结果和小型 CNN 的图像诊断方法,该方法在 COVID-19 诊断方面可以达到最先进的性能和可解释性,应用于胸部 X 光照射的人群中的病例筛查。
Apr, 2020
通过 21 个卷积神经网络模型在多样化的 33,000 + 胸部 X 射线图像上进行训练和评估,我们的研究旨在解决人工智能在 COVID-19 检测中的可解释性和鲁棒性问题,通过对抗训练提高了模型的鲁棒性,并生成了与专业放射科医生发现相一致的突出热力图。
Nov, 2023