连续学习中的超参数:现实检验
通过基于方差的函数分析技术,在持续任务学习中探索了超参数选择的作用以及根据任务复杂度不断自动调整超参数的必要性,实证表明该方法可以持续地加快超参数优化速度并在不断变化的顺序任务中表现出鲁棒性,为现实应用中更高效、更稳健、更适应性强的持续学习方法做出了贡献。
Mar, 2024
本篇论文研究了常见机器学习模型的超参数优化,介绍了一些最先进的优化技术,并讨论了如何将它们应用于机器学习算法。同时,也提供了许多用于超参数优化问题的库和框架,并在基准数据集上进行了实验,以比较不同优化方法的性能,提供超参数优化的实际例子。该综述论文将帮助工业用户、数据分析师和研究人员通过有效地识别适当的超参数配置来更好地开发机器学习模型。
Jul, 2020
本研究从统计学角度 formalize 了超参数调整问题,提出了基于数据的默认值和量化超参数可调性的一般性措施,并在 OpenML 平台上基于 38 个数据集和 6 个常见机器学习算法进行了大规模基准测试。我们的研究结果提供了超参数默认值,并使用户能够决定是否值得进行耗时的调整策略,专注于最重要的超参数并选择合适的超参数空间进行调整。
Feb, 2018
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
本文研究了终身强化学习中的关键问题,通过新的调优和评估方法,在只有百分之一的实验数据用于超参数调整的情况下,发现 DQN 和 Soft Actor Critic 方法表现不佳,而一些保持网络可塑性的算法措施表现出色,并且网络不断学习的能力与百分之一调优下的性能关联密切。
Apr, 2024
本文演示了如何利用多智能体系统开发一个分布式技术,用于确定任意集合的超参数的近似最优值,并在机器学习和全局函数优化应用中进行了研究。研究表明,在更高的维度下,所提出的模型在分类误差和函数评估方面都优于其底层随机调优策略。
May, 2022
本文提出一种基于梯度的方法来调整模型的超参数,使其在对验证成本更有利的情况下进行模型参数梯度和更新,实现对正则化超参数的调优。在 MNIST、SVHN 和 CIFAR-10 数据集上的实验表明,此方法比其他基于梯度的方法成本更低且一致找到了好的超参数值,有望成为神经网络模型训练的有用工具。
Nov, 2015
本研究针对机器学习中的不断学习提出了两个新的基准,该基准涉及来自六个图像数据集的多个异构任务,其目的是为了更好地评估当前最先进的 CL 策略,并显示出当前 CL 模型在真实世界场景中表现较差的能力,高水平遗忘并限制了课程任务顺序。
Mar, 2023