签名超级口罩:保留,隐藏,反转
通过研究 Lottery Ticket 算法的重要组成部分,本文发现把权重设置为零、知道符号的重要性和然后掩盖行为类似于训练的原因,并发现存在 Supermasks,将其应用于未经训练的网络可产生比机会更好的性能模型。
May, 2019
我们提出了 HideNseek 算法,通过基于神经元的权值修剪来解决联邦学习中各处统计异质性和客户端资源限制的问题,实验表明 HideNseek 算法在推理精度、通信成本和训练时间方面均优于现有技术。
Jun, 2022
介绍了一种称为 “超置换中的超蒙版”(SupSup)的神经网络模型,能够在不遗忘以前学习的任务的情况下,按顺序学习数千个任务,并通过存储各种任务的子网络来实现这一点。同时,该模型能够在保持最小内存使用的情况下,检测新任务并在运行时动态地添加新的子网络。
Jun, 2020
本文研究了可视识别算法中增量学习的问题,并探讨了一种基于二进制掩码的深度神经网络多任务学习方法,试验结果表明本方法能够超越传统的微调策略并取得最新公开数据集中的最高水平。
May, 2018
通过 exclusive subnetwork training 和 KNN-based knowledge transfer 方法,我们提出了 ExSSNeT 模型,避免遗忘同时实现新任务的快速学习和知识转移,在文本分类和视觉任务中得到了比 SupSup 更好的结果。
Oct, 2022
通过 HyperMask 方法,利用受 Lottery Ticket Hypothesis 影响的超网络产生适应新任务的半二值掩码,从而解决了人工神经网络在连续训练多个任务时遇到的灾难性遗忘问题。
Sep, 2023
该研究提出了一种名为 ProbMask 的基于概率空间的有效网络稀疏化方法,通过使用概率作为全局标准来度量权重重要性。 通过我们的约束,可以自动学习权重冗余度,避免为不同层调整剪枝率的问题,表现优异在 CIFAR-10/100 和 ImageNet 等数据集上,尤其是在高剪枝率情况下超过现有的最先进方法。
May, 2021
该论文提出了一种构建可逆神经网络的新方法,具有类似于 ResNets 的架构并且能够作为生成模型使用,在 MNIST、CIFAR-10 和 ImageNet 32x32 数据集的分类和生成任务中均表现得出色
Jul, 2019
该论文提出了一种基于 IMN 的人脸隐私保护方法,该方法利用 Mask 网络生成 “Mask” 人脸,从而保护面部信息的可重用性,经实验证明,其不仅可以有效保护面部信息的隐私,而且几乎可以完美地从被蒙面的脸中恢复受保护的脸。
Apr, 2022
本文研究了采用多轮训练的方式,是否能够提高特定体系结构的准确度与稀疏性之间的平衡,并在共享的 ResNet-20 初始化的基础上使用不同的 SGD 数据顺序训练多个网络副本来实现。我们的实验结果显示,采用多轮训练的思路与一次性的基于幅度裁剪的方法相比并无差异。
Apr, 2021