一次参数训练,多任务学习与迁移学习
本文提出了一种新颖的多任务学习方法,其中借助了多任务神经网络的参数共享,通过学习精细的参数共享模式来提高模型性能,该模式通过二进制变量实现,与模型参数共同反向传播学习,并在 Omniglot 基准测试中实现了 17%相对误差减小。
Oct, 2019
采用预训练深度神经网络层作为基块构建多任务学习系统,通过动态选择相关的先验知识、模型参数和超参数进行自动调优,控制模型规模实现高质量模型与较小的规模之间的权衡,并在 10 个多样化的图像分类任务中,相对于标准调优,提高了平均精度 2.39%而使用了每个任务 47% 以上的参数。
May, 2022
大规模预训练模型已在各种计算机视觉任务中取得了显著成果。然而,与其它单一任务的适应性方法相比,在多任务适应方面的研究有限,这些方法往往表现出次优的训练和推理效率。本文首先提出了一种全能视觉多任务适配器(VMT-Adapter),其训练和推理效率与任务数量近似为 O (1)。具体而言,VMT-Adapter 通过共享多个任务的知识来增强跨任务交互,并通过独立知识提取模块保留了任务特定的知识。此外,本文还提出了 VMT-Adapter-Lite,通过学习下投影和上投影之间的共享参数来进一步减少可训练参数。对四个密集场景理解任务的大量实验证明了 VMT-Adapter (-Lite) 的优越性,相比于单一任务的全面微调,它们分别实现了 3.96%(1.34%)的相对改进,并仅利用了预训练模型的约 1%(0.36%)的可训练参数。
Dec, 2023
通过实验在 ImageNet22k 和 Oxford Flowers 数据集上,探究神经网络层的学习率、数据集的图片与标签参数对转移学习的影响,优化神经网络的学习效率,实现图像分类任务的高准确度。
Jul, 2018
本文提供了一个统一框架来探讨 NLP 中参数高效的迁移学习方法,将多种不同的方法重新构建为预训练模型中特定 hidden states 的修改,定义了一组设计维度以表明不同方法的变化方向,如计算修改的函数和应用修改的位置等。通过涵盖机器翻译、文本摘要、语言理解和文本分类基准的全面实证研究,识别了以前方法中的重要设计选择。此外,我们的统一框架使得设计元素可以在不同方法之间进行转移,从而实现了比以前更高效的 fine-tuning 方法。
Oct, 2021
紧凑型神经网络面向多任务学习的过参数化设计以提高优化和泛化性能,通过在训练过程中对模型架构进行过参数化,并更有效地共享过参数化的模型参数,以在小参数大小和低计算成本下获得与更复杂和强大架构相同或更好的模型性能。在两个具有挑战性的多任务数据集(NYUv2 和 COCO)上的实验证明了所提方法在各种卷积网络和参数大小下的有效性。
Aug, 2023
本研究评估比较不同的训练神经网络技术,提出为小型数据集提高模型准确度的方法,并发现迁移学习对于重复利用以前学习的特征有重要作用,特别是在医学图像应用中。
Dec, 2019
为了解决小规模数据下优化问题,我们提出了一种对预训练深度神经网络进行微调的简单而有效的正则化方法,它的核心策略是将模型参数聚类,确保聚类内的相似性和聚类间的差异性,提高参数搜索空间的正规性; 具体而言,我们使用强化学习搜索策略和递归网络来学习每个网络层的最优分组,实验结果表明,相较於其他最新的基于微调的 k-shot 学习策略,我们的方法可以轻松应用于几种流行的卷积神经网络,提高了 10% 以上的性能。
Oct, 2017
该研究提出了一种新的重新参数化方法,通过将标准神经网络体系结构的卷积重新参数化成一个不可训练的共享部分(滤波器银行)和任务特定部分(调制器),从而使模型能够学习新任务而不会对现有任务的性能产生负面影响。该方法在 PASCAL-Context 和 NYUD 两个任务上达到了最先进的表现,并且证明了其比竞争对手具有更优秀的增量学习能力。
Jul, 2020