预算感知剪枝:用较少的参数处理多个领域
在领域自适应中,为了解决来自不同领域的相关但不同的数据对分类器性能的影响,该研究使用了两个流的架构,其中一个处理源领域的数据,另一个处理目标领域的数据。在有监督和无监督的情况下,该方法均优于现有技术,并在多个物体识别和检测任务中实现了更高的准确性。
Mar, 2016
本研究旨在通过建立一个深度学习模型,同时训练图像分类、多语种翻译、图片描述生成、语音识别以及英文解析等多个任务,并在各个任务上都达到良好的结果。该模型特别之处在于将多个计算块集成到架构中,如卷积层、注意力机制和稀疏门控层等,每个计算块都对一部分任务至关重要,但即使对于不是关键任务的块,也不会影响其它任务的表现。同时,该研究还发现,少样本的任务集成到多个任务进行训练将会有较大提升。
Jun, 2017
本研究提出了一种基于卷积神经网络的精调和压缩方法,旨在同时克服细调和修剪在参数空间上的问题,实验结果显示该方法在两个特殊图像领域有效。
Jul, 2017
本文提出一种基于深度可分离卷积的多领域学习体系结构,以捕获不同视觉领域之间的通用结构,并介绍一个门控机制,促进不同领域之间的软共享。在 Visual Decathlon 挑战赛上,我们的方法可以取得最高分数,比现有方法所需的参数数量少50%。
Feb, 2019
本文提出了一种增量学习方法,基于Tucker分解来跨领域学习和任务学习,不会产生灾难性遗忘,此方法在Visual Decathlon Challenge的10个数据集上展现出了紧凑表示的效果和与其他方法相当的性能。
Apr, 2019
本文介绍了一种多域学习(MDL)的方法,该方法利用预训练深度学习模型为不同的领域(例如,照片、素描、绘画)生成定制化的深度模型,以便更好地处理来自新领域的数据。通过引入 Budget-Aware Adapters,该方法可以选择最相关的特征通道,以适应新领域的数据,并自动调整网络的计算复杂度。实验结果表明,该方法可以在保持较高准确率的同时,显著减少存储和计算资源的消耗。
May, 2019
本文首次综述了将领域知识作为约束条件融入深度学习(DL)学习模型的方法,以提高其性能,并针对深度神经网络提出了五种主要的方法,包括特征空间操作、假设空间修改、数据扩增、正则化策略和受约束的学习。
May, 2020
本文介绍了通过适配器和居中核对齐等方法,利用多个分别训练的网络的知识来同时学习多个领域上通用的深度表示,通过距离学习方法来有效适应之前未见过的领域,并在 Meta-Dataset 基准测试中取得显著的性能提升。
Mar, 2021
本文研究了视觉Transformer在领域适应和领域泛化方案中的应用,包括特征级、实例级、模型级以及混合方法的适应,以及多领域学习、元学习、正则化技术和数据增强策略的领域泛化方法,总结了各种与分布变化相关的策略,并提供了有价值的洞见和综合表格,展示了视觉Transformer在处理分布变化方面的多样性和实用性。
Apr, 2024