本文提出一种基于神经网络的自适应框架,借助神经架构搜索技术优化网络结构,使用最大均值差异和区域加权熵估计准确性度量,实现语义分割任务的无监督域自适应,提高现有自适应技术的性能表现。
Jun, 2021
本文介绍了一种基于神经架构搜索(NAS)的新方法,称为神经架构传递(NAT),该方法可将已训练的超网络集成到在线迁移学习和多目标进化搜索流程中,以快速生成适用于多个应用场景的任务特定定制模型,并在 11 项基准图像分类任务中证明了其有效性。
May, 2020
本文提出了一种新的深度自适应网络 (DAN) 结构,它将多个领域的分布嵌入到再生核 Hilbert 空间中,并应用最优多核选择方法以匹配均值嵌入。DAN 能够学习具有统计保证的可传递特征,并通过核嵌入的无偏估计来实现线性扩展。实验证据表明,所提出的架构在标准领域自适应基准数据集上获得了最先进的图像分类误差率。
Feb, 2015
通过将马尔可夫随机场神经架构搜索(MRF-NAS)与自训练无监督域适应(UDA)结合为单一框架,本研究在有限的计算预算下为土地覆盖映射任务搜索出高效且有效的轻量级神经网络,该网络在 OpenEarthMap 和 FLAIR#1 这两个近期数据集上表现出了令人满意的性能。
Apr, 2024
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021
该研究提出了一种基于 Deep Subdomain Adaptation Network (DSAN) 的领域自适应方法,通过使用本地最大平均差异 (LMMD) 对不同领域的相关子域分布进行对齐,从而不需要敌对训练且收敛速度快,在对象识别和数字分类任务中均取得了显着的结果。
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
神经网络、深度学习、神经架构搜索、数据集、NAS 挑战是研究论文的关键词,该论文介绍了为一系列 NAS 挑战创建的八个数据集,以及使用标准深度学习方法和挑战参与者的最佳结果进行的实验。
本文提出 NetAdaptV2,通过三项创新工作平衡各个步骤的时间并支持非可微分搜索指标,进而加速神经结构搜索并提高神经网络性能。
Mar, 2021
本文提出了 NATv2,它是一种改进的神经结构搜索算法,能够改善超网络结构的生成和抽取子网络的性能,并引入精调的后处理流水线,成功地提高了 NAT 的质量,因此在使用最少的参数研究高性能结构时是高度推荐的。
Jul, 2023