BriefGPT.xyz
大模型
Ask
alpha
关键词
parameter-free optimizer
搜索结果 - 2
捷足先登:一种无参数的终身强化学习优化器
PACE 是一种无需超参数调整和先验知识的参数自由优化器,基于在线凸优化理论解决了终身强化学习中可塑性损失、适应新任务以及分布变化等挑战。实验证明,尽管底层优化问题是非凸和非平稳的,PACE 在 Procgen,Atari 和 Gym Co
→
PDF
a month ago
迈向无参数优化的稳定性
提出了一种无需手动调节参数的优化器 AdamG,通过使用 AdaGrad-Norm 算法中的黄金步长派生技术,自动适应不同的优化问题并实现了与手动调节学习率的 Adam 相当的优化性能。
PDF
2 months ago
Prev
Next