神经网络优化学习
本文提出了一种学习自我学习模型和一些实用技巧,以优化损失函数的训练问题,其优化器在许多任务上优于通用的优化算法和 DeepMind 的学习优化器,包括深度 MLP、CNN 和简单的 LSTM。
Mar, 2017
用循环神经网络控制器生成包括多种基本函数的特定领域语言的更新方程,通过强化学习来优化模型的性能,在 CIFAR-10 上发现了多种优化器,新增的 PowerSign 和 AddSign 优化器能够提高不同任务和架构的训练。
Sep, 2017
论文提出一种新的强化学习算法,将深度 Q-learning 与约束优化方法相结合,以加强最优性并促进更快的奖励传播,并得出了在 Arcade Learning Environment 中的性能评估结果,表明该方法能够显著缩短训练时间并提高准确性。
Nov, 2016
本篇文章研究了一种数据驱动的元学习方法,使用此方法可以训练出一个能够优化强化学习的通用优化器,而且可以应用于复杂任务。这个优化器的结构大大提高了学习优化器的训练效率,并且已经证明其能够泛化到未知的复杂任务。
Feb, 2023
本文对神经网络在传统组合优化框架中的性能、可迁移性、计算成本和对更大样本的普适性进行了详细研究,并在 NP-hard 问题线性排序问题上开发了神经组合优化模型。
May, 2022
此研究提出了一种基于全局和局部线性松弛的可扩展启发式方法,用于对训练后的神经网络模型进行建模和求解,具有与最先进的整数线性规划(MILP)求解器和之前的启发式方法相竞争,并且在输入、深度和神经元数量增加时能够产生更好的解。
Jan, 2024
提出了一种基于强化学习和元学习的框架来解决 few-shot learning 问题,通过稳定的损失函数来学习最佳的优化算法,从而实现了对参数的更新。实验结果表明该方法在准确率和 NDCG 指标上均超过了现有的替代方法,并且可扩展到网络结构搜索。
May, 2020