G-NAS: 单域通用目标检测的可一般化神经结构搜索
本文提出了针对 Out-of-Distribution 通用性的 NAS(NN 架构搜索)算法,通过数据生成器进行程度上相对稳健的搜索,并通过对不同神经架构计算出的损失最大化合成 Out-of-Distribution 数据来使神经架构与数据生成器在端到端方式下共同优化,实现了对于不同分布的稳健性和精度优化。在各种 Out-of-Distribution 通用性基准测试和行业实际数据集上均取得了良好的性能。
Sep, 2021
单域泛化(S-DG)方法用于将模型推广到未知环境,但大多数方法局限于分类领域,在目标检测中会导致语义特征损坏,我们提出一种面向目标检测的目标感知领域泛化(OA-DG)方法,包括数据增强和训练策略(OA-Mix 和 OA-Loss),通过生成多域数据和学习域不变表示,我们的方法在标准基准上优于现有研究。
Dec, 2023
本文探讨了一种新的神经架构搜索度量方式,发现损失曲面的平整度可以预测神经网络架构的泛化能力,通过在不同的搜索空间进行评估,提出的方法相对于现有的 NAS 方法表现更好,并且在数据分布偏移以及目标检测或语义分割等任务中具有稳健的泛化能力。
May, 2023
本篇文章主要讨论对象检测中的领域泛化问题(DGOD),提出了一种综合评估标准对检测器进行评估,并提出了一种名为 Region Aware Proposal reweighTing (RAPT) 的新方法,以消除 RoI 特征内的依赖性。实验表明,我们的方法优于其他最先进的对手。
Mar, 2022
本文提出了一种针对 Single Domain Generalization 的新策略 ——Spectral Adversarial Data Augmentation,通过提高模型对高敏感频率的学习能力,从而有效提高模型的泛化能力,各项实验均超过目前 Single-DG 方法的最佳表现。
Dec, 2022
本文介绍了一种名为神经架构搜索的领域自适应基本框架 (NASDA),它利用可微分的神经架构搜索来获得领域适应任务的最佳网络架构,并具有神经架构搜索和多核最大平均差异配合的两种新的训练策略,通过实验证明 NASDA 在多个领域适应基准测试中表现出最先进的性能。
Aug, 2020
本文提出了具有可证明收敛保证的生成式对抗网络 NAS (GA-NAS),并基于权重的鉴别器提供的奖励,采用增强学习训练生成器,探索搜寻空间而无需评估大量体系结构,通过三个公共 NAS 基准测试,在多个情况下 GA-NAS 都能打败已发布的最佳结果,同时 GA-NAS 可以处理特定搜寻约束和空间,能用于改进其他 NAS 方法找到的优化基线的 ImageNet 准确性或参数数量。
May, 2021
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
本文介绍了一项有关 AutoGAN 的初步研究,这是将神经架构搜索算法引入生成对抗网络中的首个尝试。通过使用 RNN 控制器来引导搜索生成器构架的变化,实验结果验证了 AutoGAN 在无条件图像生成任务中的有效性,并与当前最先进的手工制作的 GANs 相比,取得了高竞争性的表现。
Aug, 2019
本研究提出了一种名为 DEGAS 的新型策略,旨在通过差分架构搜索策略和全局潜在优化过程,有效地找到对抗生成网络(GAN)中的生成器,在此基础上,在 CTGAN 模型上优于原始成果,并在较短的搜索时间内比基于强化学习的 GAN 搜索方法获得更好的结果.
Dec, 2019