TransBoost:使用深度转导技术提高最佳 ImageNet 性能
通过给训练数据增加更多的图像变换、给测试时产生更多的预测和使用应用于更高分辨率图像的补充模型等多种技术,我们改进了目前基于深度卷积神经网络的图像分类流程,并在 Imagenet 大规模视觉识别挑战赛 2013 中获得了前五名,我们的系统分类错误率为 13.55%,相对于上一年的获胜者,出现了超过 20%的相对提高。
Dec, 2013
本文研究了基于 Transformer 的图片分类模型的优化,通过两个 Transformer 模型的改进,使得模型深度增加能够带来更好的性能表现,并在 Imagenet 数据集上取得了 86.5% 的 top-1 准确率,创造了当前最高成绩。同时,我们还通过重新评估标签,打破了 Imagenet-V2 数据集的最高准确率记录,并开放了源代码和训练好的模型。
Mar, 2021
本文提出了一种新的迁移学习算法 TransBoost,该算法兼具基于树的模型和核方法的优点,具有理论保证的高效权重更新机制,能够在高维特征和稀疏数据中快速准确地评估新用户的风险,提高金融机构的包容性和判断客户风险能力。
Dec, 2021
通过数据分析、选择强基线模型、迁移学习、数据增强和测试时间增强等综合方法,我们在 ICCV/CVPPA2023 深度养分缺乏挑战赛中获得第二名,以高分辨率图像分类为主要研究内容。
Sep, 2023
NetBooster 框架通过扩张 - 收缩策略扩充小型神经网络结构,从而解决 Tiny deep learning 在大规模数据集和下游任务上的欠拟合问题。实验证明 NetBooster 始终优于现有的 Tiny deep learning 解决方案。
Jun, 2023
本文发现在 ImageNet-1k 规模的数据集上,Vision Transformer 模型不需要复杂的正则化技术,标准的数据增强足以提高模型表现。作者提出几种修改方式,能在较短时间内显著提高模型性能,实验表明在 TPUv3-8 上训练 90 个 epoch 的 ViT 模型在 7 小时内可以超过 76% top-1 精度,达到经典的 ResNet50 模型的性能表现。经过 300 个 epoch 的训练,模型可以在不到一天的时间内达到 80% 的 top-1 精度。
May, 2022
提出了一种有效的结构,通过小的计算开销增强了适用于移动设备的视觉 Transformer 的性能。该结构通过存储来自早期注意力阶段的信息并在最终分类器中重复利用该信息解决了现有方案的弱点。
Sep, 2023
本文介绍一种新技术 Deep Incremental Boosting,它是从 AdaBoost 发展而来,并专门适用于 Deep Learning 方法,它可以缩短训练时间并提高泛化能力。作者借鉴了 Transfer of Learning 方法,以减少每个增量 Ensemble 成员的启动时间,我们展示了一系列在一些常见 Deep Learning 数据集上的实验,印证了一些初步结果,并讨论了 Deep Incremental Boosting 对传统 Ensemble 方法在 Deep Learning 方面带来的潜在改进。
Aug, 2017
本论文主要研究了低层级计算机视觉任务(如去噪、超分辨率和去雨等),并开发了一种新的预训练模型 —— 图像处理变压器(IPT),通过 ImageNet 基准测试产生大量的损坏图像对,训练 IPT 模型并成功地在不同的图像处理任务上产生了良好的结果。
Dec, 2020