使用强化学习设计神经网络结构
该论文介绍了使用强化学习和一次性训练为指导原则的自动神经架构搜索框架 DQNAS,用于生成具有优越性能且具有最小可扩展性问题的神经网络架构。该框架可以减少设计卷积神经网络的时间和测试成本。
Jan, 2023
利用递归神经网络生成神经网络模型描述,并通过强化学习训练,使生成的结构在验证集上的预期精度最大化,可以在多个数据集上实现新型神经网络模型设计,其中 CIFAR-10 模型的测试误差率为 3.65%,优于先前采用类似结构的 SOTA 模型; 在 Penn Treebank 数据集上,生成的递归单元的测试置信度比先前 SOTA 模型提高了 3.6 和 1.214。
Nov, 2016
本文提出了一种基于深度神经网络的自动化设计架构的新框架,该框架使用强化学习代理作为元控制器,通过功能保持变换在当前网络的基础上,尝试增加网络深度或层宽。在 CIFAR-10 和 SVHN 基准数据集上的测试表明,该方法在受限的计算资源下可以设计出具有高竞争力的网络,并在不使用跨层连接的条件下实现了 4.23%的测试误差率。
Jul, 2017
本研究提供一种基于 Q-learning 和 epsilon-greedy 探索策略的块状神经网络自动生成框架 (BlockQNN)。通过 BlockQNN,我们能够自动生成表现优异的卷积神经网络,同时加速神经网络的构建过程,显著减少搜索空间,并实现模型在不同数据集上的迁移学习。
Aug, 2017
使用递归卷积神经网络的值迭代,以及部分可观测环境下的状态信念传递和最佳行动选择来更好地利用强化学习问题的固有结构,通过 RCNNs 回传梯度允许系统显式地学习与底层 MDP 相关联的变换模型和奖励函数,这是经典基于模型的 RL 的一种优秀替代方法。我们通过机器人规划问题的仿真来评估所提出的算法,并展示了我们框架降低重新规划成本、学习准确的 MDP 模型以及使用学习的模型重新规划以实现接近最优策略的能力。
Jan, 2017
本研究展示了利用神经网络强化学习在量子纠错任务中独立发现量子纠错策略的能力,并提出了包括二阶段学习和反馈优化在内的策略。这项工作不仅在量子计算方面具有重要作用,还显示了神经网络强化学习在物理学领域的潜力。
Feb, 2018
本文介绍了一种基于 Q 学习和 epsilon-greedy 探索策略的块状网络生成方法 BlockQNN,并通过堆叠块生成高性能卷积神经网络。该方法相较于手工设计的网络具有更强的泛化性和搜索空间的显著减小,且在图像分类方面具有最先进的成果。
Aug, 2018
本文介绍了新型 COncrete DEfect BRidge IMage 数据集 (CODEBRIM),用于对五种常见混凝土缺陷进行多目标分类,研究和比较了两种基于强化学习的元学习方法(MetaQNN 和高效神经架构搜索),以寻找适合这个具有挑战性的多类别多目标任务的卷积神经网络结构。结果显示,所学习的架构在我们的应用上比文献中普遍采用的神经网络架构具有更少的参数,并产生更好的多目标准确性。
Apr, 2019
该研究提出一种新型的多时间尺度随机循环神经网络用于强化学习,可以自主学习抽象的子目标并自我开发行为层次结构,在挑战性的连续控制任务中确保了比起从头开始训练更快的再学习。同时,研究发现,当神经活动遵循随机动态时,可以实现更好的表现。
Jan, 2019