本文提出了一种基于进化的技术,能够生成能够支持动态添加新任务的大规模多任务模型,并演示了该方法在 69 个公共图像分类任务上取得了有竞争力的结果,相对于在公共数据上训练的最佳模型,其错误率降低了 15%。
May, 2022
采用预训练深度神经网络层作为基块构建多任务学习系统,通过动态选择相关的先验知识、模型参数和超参数进行自动调优,控制模型规模实现高质量模型与较小的规模之间的权衡,并在 10 个多样化的图像分类任务中,相对于标准调优,提高了平均精度 2.39%而使用了每个任务 47% 以上的参数。
该研究提出了一种新方法,即利用少量的突变规则来动态演化循环神经网络的结构,其结果表明,这种方法可以在大多数情况下匹配或超过梯度下降方法的性能,同时使用数量级更少的参数,该方法有望在对网络紧凑性和自主设计至关重要的实际应用方面开辟新的途径。
Apr, 2023
基于多目标进化算法的循环神经网络架构搜索方法在复杂度优化期间使用近似网络形态学,结果显示该方法能够找到与最先进手动设计的循环神经网络架构相比具有可比性能但计算需求较低的新型循环神经网络架构。
Mar, 2024
本文提出了一种深度多模态神经网络架构搜索(MMnas)框架, 通过使用基于梯度的 NAS 算法,可以高效地学习不同任务的最佳架构,并设计了一个统一的编码器 - 解码器骨干网络,其中每个编码器或解码器块对应于从预定义的操作池中搜索出来的操作,以及面向不同多模态学习任务的特定头部。实验结果表明,MMnasNet 在三个多模态学习任务上显着优于现有的最先进方法,包括视觉问答、图像文本匹配和视觉定位。
Apr, 2020
本研究提出了一种新的自动化机器学习(AutoML)框架,通过演化图神经网络(GNN)模型来寻找最合适的结构和学习参数,并在半监督和归纳式节点表示学习和分类任务上展示它的性能。
Sep, 2020
通过设计机器人体形,可以在多任务场景下克服神经控制器所遇到的许多问题,从而实现设计更通用、需要更少计算力的机器人。
Jun, 2023
通过强化学习控制器自动优化神经架构,实现多任务学习中的共享,能够提高文本分类和序列标注等多种任务的精度。
Aug, 2018
提出一种名为 MO-EvoPruneDeepTL 的多目标进化修剪算法,利用转移学习将深度神经网络的最后层替换为稀疏层,通过性能、复杂度和稳健性引导演化,实验结果表明该算法在所有目标方面都取得了有前途的结果,且网络修剪带来的影响有助于解释输入图像对于修剪神经网络预测最为相关的部分。最后通过利用不同修剪模型的集合显示整体性能和鲁棒性的提高。
Feb, 2023
通过自然进化形成的人脑复杂而独特的神经网络拓扑结构使其能够同时执行多个认知功能,本文通过引入模块化结构和全局互连性来进化脉冲神经网络的架构,同时提出一种高性能、高效能、低能耗的多目标进化算法,通过对静态数据集和神经形态数据集的广泛实验证明了所提出模型的能效提升和稳定优异的性能,并初步探索了人脑生物神经网络的进化机制。
Sep, 2023