CINIC-10 不是 ImageNet 或 CIFAR-10
该论文提出了一个下采样的 ImageNet 数据集以解决在原始数据集上进行实验成本高的问题,并通过实验表明,与原始数据集相比,该数据集在使用深度神经网络训练时的最佳超参数的性质保持类似。
Jul, 2017
通过构建 CIFAR-10-Warehouse 测试平台来研究模型性能在不同未知环境下的问题,以提高对领域泛化和各种分布外环境中模型准确性预测的评估和理解。
Oct, 2023
我们创建并开源了基于 MedMNIST + 收藏的 12 个数据集和 9 种成像模式的基准数据集 MedMNIST-C,模拟了不同严重程度的任务和模式特定图像损坏以全面评估已建立算法对真实世界工件和分布偏移的鲁棒性,并提供定量证据表明我们简单易用的人工损坏方法可用于提高模型的鲁棒性。与传统的通用增强策略不同,我们的方法利用领域知识,在与广泛采用的方法相比时表现出更高的鲁棒性。通过引入 MedMNIST-C 并开源相应的库以实现有针对性的数据增强,我们为医学成像领域越来越具有挑战的鲁棒方法的发展做出贡献。代码可在此 https URL github.com/francescodisalvo05/medmnistc-api 找到。
Jun, 2024
本文构建了针对 CIFAR-10 和 ImageNet 数据集的新测试集,发现在新测试集上,模型的准确率下降为 3% 到 15%,且这种准确率下降并非由于适应性,而是由于模型无法推广到原始测试集中找不到的,略微 “更难” 的图像。
Feb, 2019
我们介绍了一个名为 ImageNot 的数据集,这个数据集在规模上与 ImageNet 相匹配,但在其他方面有很大差异。我们展示了在 ImageNot 上训练和评估的关键模型架构与在 ImageNet 上的排名完全相同,不论是从头开始训练还是微调模型。此外,每个模型相对于之前模型的改进在两个数据集中都强相关。我们进一步提供了证据表明,ImageNot 在迁移学习方面具有与 ImageNet 类似的效用。我们的工作展示了图像分类模型相对性能具有惊人的外部有效性,这与即使在数据集发生微小变化时绝对准确性数字通常会急剧下降的情况形成对比。
Apr, 2024
研究发现,对于常见的基准数据集,可以找到可推广的子集,该子集在训练时与完整数据集相当。此结果可以发现 CIFAR-10 和 ImageNet 数据集中的显着冗余(至少 10%),并且观察到所需图片和多余图片之间存在语义相关性,这可以鼓舞进一步研究以提高训练效率或数据收集。
Jan, 2019
为了解决标准化鲁棒性评估指标缺乏和过多无关基准数据集的问题,我们引入了 XIMAGENET-12,一个可解释的基准数据集,包含 20 万多张图像和 15,600 个手动语义注释。同时,我们提出了一个新的鲁棒性评估标准,超越了模型生成能力的评估。研究人员和从业者可以利用这个资源,在具有挑战性的条件下评估他们的视觉模型的鲁棒性,并从实际的计算机视觉系统需求中受益。
Oct, 2023
以 CIFAR-10 数据集为例,本研究通过引入训练方法,利用单个 NVIDIA A100 GPU 在 3.29 秒内达到 94% 的准确率,在 10.4 秒内达到 95%,在 46.3 秒内达到 96% 的准确率,其中水平翻转增强的非随机变体是加速训练速度的一个因素。
Mar, 2024
本文提出了一种基于压缩样本的识别模型的方法,通过动态压缩样本(通过 class activation maps 生成 0-1 遮罩屏蔽非鉴别性的像素点)并存入内存来实现无需进行手动注释的自适应压缩样本,通过在高分辨率的 CIL benchmarks(包括 Food-101, ImageNet-100, 和 ImageNet-1000)上进行了实验,结果显示,使用 CIM 压缩样本可以实现新的 CIL 精度的全新的最高水平。
Mar, 2023
通过构建新的测试集 ciFAIR 数据集,消除训练集和测试集中的重复图像,重新评估了流行的 CNN 架构的分类性能,发现相对于原始无重复数据的测试集,分类准确率下降了 9%到 14%。
Feb, 2019