OPANAS: 一次性路径聚合网络架构搜索用于物体检测
本研究提出了一种效率高的方法,通过针对自动定位简单无锚对象检测器的 FPN 和预测头部进行搜索,使用定制化的强化学习范式,能够在 4 天内使用 8 个 V100 GPU 找到表现最佳的检测架构,并在 COCO 数据集上超过了 Faster R-CNN,Retina-Net 和 FCOS 等现有模型,AP 提升了 1.0%至 5.4%。
Oct, 2021
本研究使用增强学习范式,通过对特定搜索空间的精心设计和策略,高效地搜索出网络结构,提出了一种优化目标检测模型的神经网络架构搜索方法,并在四天内使用 8 V100 GPUs 在 COCO 数据集上取得比 Faster R-CNN、RetinaNet 和 FCOS 等模型更好的性能,充分展示了该方法的有效性。
Jun, 2019
本文介绍了使用神经架构搜索方法学习目标检测特征金字塔网络的新架构 NAS-FPN。NAS-FPN 采用自下而上和自上而下的连接方式,通过结合 RetinaNet 框架中的各种骨干模型,相比当前最先进的目标检测模型,在精度和延迟的交易方面取得更好的效果。NAS-FPN 在移动检测精度方面比 [32] 中的最先进的 SSDLite with MobileNetV2 模型提高 2 个方差值,并以更少的计算时间实现了 48.3 的检测精度,超过了 Mask R-CNN [10] 的检测精度。
Apr, 2019
通过一种表格构建技术,PONAS 基于进步式神经架构搜索(NAS)和一次性 NAS 方法相结合,以非常高效的方式设计符合不同硬件约束的神经网络架构,实验中 ImageNet 分类任务的 top-1 精度达到了 75.2%。
Mar, 2020
该研究提出了一种名为 EPNAS(高效渐进的神经结构搜索)的神经结构搜索方法,它通过一种新的渐进搜索策略和基于 REINFORCE 的性能预测有效地处理大型搜索空间。EPNAS 被设计成能够在并行系统(如 GPU/TPU 集群)上并行搜索目标网络。该方法还可以推广到具有多个资源限制的体系结构搜索,这对于在移动设备和云平台等广泛平台上进行部署非常重要。在使用 CIFAR10 和 ImageNet 进行图像识别任务时,该方法在架构搜索速度和识别准确性方面均优于先进的网络结构和高效的 NAS 算法。
Jul, 2019
本文介绍一种名为 Prior-Guided One-shot NAS 的神经架构搜索方法,它采用平衡采样策略、FLOPs 和 Zen-Score 等机制来加强超级网络的排名相关性,取得了 CVPR2022 第二轻量化 NAS 挑战赛超级网络轨道的第三名。
Jun, 2022
本文介绍了一种使用简化的超网络进行单路径神经架构搜索的方法,该方法易于训练、快速搜索、灵活支持不同的搜索约束,并在大规模数据集 ImageNet 上实现了最先进的性能。
Mar, 2019
本研究提出 MnasFPN 架构搜索空间以及结合基于延迟感知的搜索方法的对象检测模型设计,与 MobileNetV2 体系结构相匹配,优于 MobileNetV3+SSDLite 1.8 mAP,在与 NAS-FPNLite 相比,精度更高 1.0 mAP,速度更快 10%。
Dec, 2019
本文提出了一种高效、协作且高度自动化的框架,基于现有的一次性网络架构搜索(NAS)范式,在统一的全貌分割管道中同时搜索用于骨干、分割分支和特征融合模块的所有主要组件,将单一任务 NAS 扩展到多组件场景中,并采用新提出的模块内搜索空间和问题导向的模块间搜索空间,以帮助我们获得最佳网络架构,该架构不仅在实例分割和语义分割任务中表现良好,而且了解前景和背景物体类之间的相互关系,并通过引入一种新的路径优先贪心搜索策略来减少搜索开销,我们找到了一个稳健、可转移性强的架构,名为 Auto-Panoptic,并在具有挑战性的多个基准测试集上实现了新的最先进的结果。
Oct, 2020
本文提出了一种名为 DetNAS 的方法,使用神经结构搜索技术来设计用于目标检测的骨干网络,实验证明通过 DetNAS 搜索得到的网络在 COCO 数据集上的性能要优于手工设计的网络。
Mar, 2019