深度模型重组
SeaM 是一种改进现有 DNN 模型可重用性的工具,它使用基于梯度的搜索方法搜索模型的相关权重,从而重建模型以仅保留与目标问题相关的权重,并且相较于原始模型,在分类准确性上提高了 5.85%,并且重复使用重建模型时缺陷继承平均减少了 57%。
Apr, 2023
本文介绍了一种名为模型再编程的新技术,通过从源域重新利用和重用开发良好的预训练模型来解决目标域中的任务,从而实现资源高效的跨域机器学习,其方法论、现有应用案例和开放性研究问题等均有详细阐述。
Feb, 2022
提出一种名为 Disentangled Dense Retrieval(DDR)的新型 Dense Retrieval 框架来支持 DR 模型的有效和灵活的领域自适应,该框架包括一个 Relevance Estimation Module(REM)和几个 Domain Adaption Modules(DAMs),通过使 REM 和 DAMs 分离,DDR 实现了一种灵活的训练范式,在不同的领域和语言中都表现出比强大的 DR 基线更好的排名性能。
Aug, 2022
本文提出了动态重参数化方法,通过优化计算效率、提升表征能力,采用 mini-batch 实现动态演化神经网络,并将其应用于 ResNet-18 模型上,结果表明:在 ImageNet 数据集上,相比基线模型,精度提升了 2.04%,运行时长降低了 22%。
Mar, 2022
通过模型分离和参数化,我们提出了一种名为 SepRep-Net 的新框架,用于解决多源自由域自适应问题,在保持计算成本较低的同时,在目标领域上获得竞争性性能,同时保留比现有解决方案更多的源知识。
Feb, 2024
该研究报告介绍了一种综合且易于使用的模型重用工具箱 ZhiJian,利用 PyTorch 后端,旨在帮助深度学习实践者探索下游任务并识别不同方法之间的互补优势,从而实现预训练模型的无缝利用,简化研究人员和开发人员的模型重用过程。
Aug, 2023
使用神经模型重编程的参数高效学习框架,可在跨语音识别中重新利用训练良好的英文自动语音识别模型,实现大规模预训练 ASR 成功,提高了训练效率。
Jan, 2023
本文提出了一种基于闭环迭代一致优化的框架,将不同的预训练模型组合在一起,以零样本方式解决各种多模态问题,该框架通过生成器和评分器的迭代反馈,使模型之间通过沟通逐渐纠正错误,形成一致性,从而显著提高下游任务的性能。
Oct, 2022
本研究提出一种新的基于深度计算图重编程的无需改变结点特征或者模型参数的任务复用模型,使用数据重编程和模型重编程方法能更好地解决不同领域中的多跨层下游任务,其中元特征填充是解决图像特征维度多样化的挑战的关键方法之一。
Apr, 2023