MedMNIST 分类十项赛用的复杂混频器
该研究提供了一个全面的基准测试,用于多样化评估医学图像分类的常见卷积神经网络和 Transformer-based 模型,并发现计算效率高的训练方案和现代基础模型在减少昂贵的端到端训练和资源精细的方法之间具有潜力。此外,研究结果表明,较高分辨率未必在一定阈值之上始终提高性能,提倡在原型阶段尤其使用较低分辨率以加快处理速度。同时,该研究也确认了卷积模型与 ViT-based 模型的竞争力,强调了不同模型架构的内在能力的重要性。希望该研究的标准化评估框架能够提高 MedMNIST + 数据集以及未来研究的透明度、可复现性和可比性。
Apr, 2024
MedMNIST 是一个包含 10 个已预处理的医学开放数据集的标准化集合,可用于医学图像分析的多模式机器学习和自动机器学习的教育目的、快速原型设计和基准测试等。
Oct, 2020
介绍了一个类似于 MNIST 的大规模医学图像数据集 MedMNIST v2,包括 12 个 2D 数据集和 6 个 3D 数据集,经过预处理的图像大小为 28x28 或 28x28x28,支持多种数据集规模和任务,并提供了基准方法 (2D/3D 神经网络和开源 / 商业 AutoML 工具)进行分类任务。可用于医学图像分析,计算机视觉和机器学习等领域的研究和教育目的。
Oct, 2021
我们提出的名为 ChimeraMix 的深度学习网络架构通过生成实例组合的数据增强方式,解决了在小数据集上进行深度学习的限制,并在基准数据集上展示了优于现有同类方法的分类性能。
Feb, 2022
我们创建并开源了基于 MedMNIST + 收藏的 12 个数据集和 9 种成像模式的基准数据集 MedMNIST-C,模拟了不同严重程度的任务和模式特定图像损坏以全面评估已建立算法对真实世界工件和分布偏移的鲁棒性,并提供定量证据表明我们简单易用的人工损坏方法可用于提高模型的鲁棒性。与传统的通用增强策略不同,我们的方法利用领域知识,在与广泛采用的方法相比时表现出更高的鲁棒性。通过引入 MedMNIST-C 并开源相应的库以实现有针对性的数据增强,我们为医学成像领域越来越具有挑战的鲁棒方法的发展做出贡献。代码可在此 https URL github.com/francescodisalvo05/medmnistc-api 找到。
Jun, 2024
研究提出了一种新的 3D Shuffle-Mixer 网络,它采用本地视觉变换器 - MLP 范例,可以更有效地应用于医学成像中的密集预测,获得比其他先进的密集预测方法更好的性能。
Apr, 2022
提出一种基于 MixUp 正则化技术的平衡采样机制,称为 Balanced-MixUp,可以同时对训练数据进行正常(基于实例)和平衡(基于类)采样,使神经网络可以有效地学习高度不平衡的医学图像分类数据集。实验结果表明,Balanced-MixUp 优于其他常规采样方案和针对不平衡数据设计的损失函数。
Sep, 2021
这篇论文研究了在医学图像数据集中,由于欠拟合和过拟合现象,无法很好地工作的深度学习模型问题,并提出了一种名为 Medi-CAT 的训练策略,采用了大型预训练视觉变换器以克服欠拟合,并采用对抗性和对比性学习技术以防止过拟合,实验结果表明,相比于其他已知方法,这种方法在三个基准数据集上提高了 2% 的准确性,并且相对于基准方法提高了 4.1% 的性能。
Oct, 2023
本文研究了注意力机制对于自然语言处理和图像识别任务的应用。通过提出一种轻量级的基于 MLP 的多维 MLP 结构,并采用新型的 MLP 注意力工具,我们实现了在小数据集上的从头训练的 SOTA 结果,同时具备出色的解释能力。
May, 2022
LVM-Med 是第一个在大规模医学数据集上训练的深度网络家族,并使用一种新的自监督对比学习算法来优化训练,实验结果表明,在处理医学任务时,LVM-Med 相比于其他现有模型可以获得更好的表现。
Jun, 2023