高阶求解器中p适应性的强化学习策略
本研究提出一种新的有限元自适应网格细化方法,将其视为马尔可夫决策过程,并应用深度强化学习进行训练,从而解决了传统方法对瞬时误差估计的依赖问题,并通过静态函数估计和时间依赖方程等实验验证了该方法的可行性和有效性。
Mar, 2021
本文提出,实现并评估了一种基于强化学习的计算框架用于自动网格生成,通过将网格生成问题转化为马尔可夫决策过程,使用“软玄学家”算法对自动生成的网格进行学习,使我们能够建立一个完全自动化的网格生成系统,填补现有网格生成工具的空白。
Mar, 2022
提出了一种可以捕捉多种学习协议的RL可解高维模型,并将其典型动态推导为一组封闭形式ODE,我们推导出了学习率和任务难度的最优计划,同时还展现了丰富的行为,包括稀疏奖励下的延迟学习;因奖励基线的不同而产生的各种学习模式;以及由奖励严格性驱动的速度-准确性权衡。 与“Bossfight”的Procgen游戏和Arcade Learning Environment游戏“Pong”的变体的实验还表明,在实践中存在速度-准确性权衡问题。
Jun, 2023
通过综述方法与开放问题对最近几年来RL的安全和稳健性的相关研究工作进行总结,本文主要关注RL系统在现实场景中的安全性和稳健性挑战,探讨了算法、伦理和实践考虑等方面的主要维度以及如何增强RL代理的安全性和稳健性,同时讨论了环境因素和人的参与等影响因素,最后提出了一个实用的检查清单,以帮助从业者在各个应用领域负责任地部署RL系统。
Mar, 2024
我们将自适应网格细化(AMR)作为一种协作、均质代理系统,通过迭代地分裂成多个新的代理来降低最大网格元素误差,从而提供了高效、稳定的优化,并在用户定义的分辨率下生成高度自适应网格。ASMR在大量实验中展现了优于启发式方法和学习基准的性能,并在推理过程中在不同领域上推广,而且在更高要求的设置中产生比均匀细化快两个数量级的模拟网格。
Jun, 2024
本研究聚焦于强化学习(RL)这一人工智能领域,通过介绍其核心概念和方法,填补了学习资源不足的空白。论文提出了一种系统化的学习路径,帮助初学者理解状态、动作、策略和奖励信号等关键组件,进而掌握各种RL算法的应用。其重要发现是为初学者提供了清晰且易于理解的强化学习入门,促进该领域的学习与实现。
Aug, 2024