多任务可解释性皮肤病变分类
使用 Faster-RCNN 和 SkinNet 的多任务卷积神经网络(CNN)的联合检测和分割框架,对皮肤病变进行准确和自动地划分,并且在 ISBI 2017 数据集上得到了 Dice 系数大于 0.93、Jaccard 系数大于 0.88、准确率大于 0.96 和敏感度大于 0.95 的良好表现。
Aug, 2018
本文研究了实现强健的皮肤病诊断的实用方法,并提出一种以皮损为病变类型标签的自动化诊断系统作为目标的方法,并应用卷积神经网络(CNNs)来实现疾病定向诊断和病变定向分类的分类器,并采用来自六个公开皮肤病学大全的75665个皮肤病图像来进行训练与测试,结果证明基于病变定向分类的分类器的效果优于疾病定向的分类器。
Dec, 2018
使用深度多任务学习(MTL)框架,结合图片的身体部位信息和 ImageNet 预训练模型,实现皮肤病变分类和身体部位分类的联合优化,结果表明该方法比独立单任务表现更为鲁棒。
Dec, 2018
本文介绍了我们针对ISIC 2019皮肤病变分类挑战的方法,通过包括不在训练集中的皮肤病变类型的外部数据,使用丰富多样的数据集解决多类皮肤病变分类中的类别不平衡问题,并采用不同的分辨率和裁剪策略,以及额外的神经网络融合等技术实现了一整套模型,最终在两个任务上取得了最好的效果。
Oct, 2019
本文旨在提高元学习以用于分类皮肤镜图像,通过使用少样本学习(few-shot learning)和元学习方法,实验结果表明,本文的方法能够显着提高皮肤镜图像的分类性能。
Oct, 2022
该研究提出了一种轻量级的皮肤病变检测流程,应对类别分布不平衡和一些病变的微妙或非典型表现的挑战。该流程基于一种轻量级模型,利用幽灵特征和DFC注意力机制减少计算复杂性同时保持高性能。通过合成少数类过采样技术和各种图像增强技术来解决数据集中的类别不平衡问题。模型还采用基于知识的损失加权技术,在类别级别和实例级别对损失函数赋予不同的权重,以帮助模型关注少数类别和具有挑战性的样本。该模型在检测和分类不同的皮肤病变方面取得了92.4%的准确率,84.2%的精确度,86.9%的召回率和85.4%的F1得分,尤其在识别良性角化病样病变(BKL)和痣(NV)方面表现出色。尽管具有卓越的性能,但该模型的计算成本远低于一些准确度较低的模型,使其成为实际应用中准确度和效率都至关重要的最佳解决方案。
Aug, 2023
通过最大化不同视角下的镜检和临床图像之间的相似性,聚类分析生成模拟的伪多标签以及利用标签关系来改善多模态皮肤病变分类的自监督学习算法比其他现有自监督学习算法在七点皮肤病变数据集上获得了更好的性能。
Oct, 2023
通过整合智能手机拍摄的图像与临床和人口统计信息,将多模态方法引入皮肤病变分类的诊断过程中,通过辅助任务的超分辨率图像预测组成,提高特征提取和类别区分的能力,并展示了在资源匮乏的医疗环境中应用此方法的有效性。
Feb, 2024
通过使用新颖的注意机制来聚焦于不同对称性、质地和颜色等特征的差异以及提取皮损边界信息的梯度融合小波和软注意辅助特征,我们的模型在多类别且高度不平衡的数据集HAM10000上测试并取得了有希望的结果,F1得分为91.17%,准确率为90.75%。
Jun, 2024