部分网络克隆
本研究提出了一种高效的深度卷积神经网络训练方法,基于增量学习的技术思想,允许网络在学习新任务时共享以前学习过的卷积层,同时不会丢失以前学习过的任务,通过克隆 - 分支技术,每次逐一地学习新任务,达到节省时间、能源和存储等复杂度的目的。
Dec, 2017
本文提出一种基于模型剪枝的迁移学习的简单且有效的方法 PAC-Net,包括三个步骤:修剪、分配和校准。该方法在各种各样和广泛的归纳迁移学习实验中取得了遥遥领先的表现。
Jun, 2022
本文提出了一种通过神经网络移植实现将特定任务和类别的神经网络移植到通用的模块化网络中的方法,并采用新的蒸馏算法 back-distillation 来克服网络移植的特定挑战。
Jan, 2019
本研究提出了部分权重生成的超网络,针对连续学习中忘记问题进行了实验,发现与激活重演方法相比,部分超网络保持了先前经验的准确性,并提供了计算和最终测试准确性之间有效的平衡。
Jun, 2023
本研究提出了一种名为增强型策略克隆(APC)的技术,通过使用合成状态在采样轨迹周围诱导反馈敏感性,从而显着减少了克隆专家所需的环境交互次数,实现了从专家到学生策略的高效数据迁移,适用于许多现有的算法。
May, 2022
介绍了快速将一个神经网络中存储的信息传输到另一个神经网络中的技术,并演示了将 Net2Net 技术用于 Inception 模块增加深度时,对 ImageNet 数据集取得了新的最先进的准确度评分。
Nov, 2015
本文介绍了一种基于小参数集合的深度神经网络迁移学习和多任务学习的新方法,通过调整网络中的特定组件使其适应不同任务,以达到在多个任务中共享参数并且性能表现良好的目的。
Oct, 2018
该研究介绍了一种新的无监督领域适应方法,通过重新设计 Prototype Networks 学习一个嵌入空间,并通过到每个类别原型的距离的重新设计进行分类。通过在源域和目标域中接近每个类别的原型,同时预测分别在源数据和目标数据上的原型的分数分布相似,实现 Transferrable Prototypical Networks(TPN)自适应。在 MNIST、USPS 和 SVHN 数据集的转换中进行了大量实验证明,当与最先进的方法进行比较时,我们报告了更好的结果。更为重要的是,我们在 2017 年 VisDA 数据集上获得了 80.4%的单模型准确率。
Apr, 2019
本文提出了一种新颖的多任务学习方法,其中借助了多任务神经网络的参数共享,通过学习精细的参数共享模式来提高模型性能,该模式通过二进制变量实现,与模型参数共同反向传播学习,并在 Omniglot 基准测试中实现了 17%相对误差减小。
Oct, 2019
本文提出了一种名为网络协作与逐层消歧 (NCPD) 的新方法,针对存在歧义标注信息的部分标签学习问题进行模型训练,其中采用了逐步消歧策略,弱化了复杂实例带来的误差累积问题,并利用协作的人工神经网络实现更好的性能。实验结果表明,该方法优于现有的同类算法。
Feb, 2020