安全行车及行人感知自动驾驶的认知水平 -$k$ 元学习
提出一种基于强化学习和动作基元的分层框架,可自主收集和重复使用知识来解决城市环境下自动驾驶面临的挑战和不确定性,通过 CARLA 模拟器的测试,其表现优于其他基线方法。
Jul, 2022
本文介绍了一种利用深度强化学习解决自动驾驶问题的方案,不同于其他机器人任务,自动驾驶需要确保功能安全和在多个智能体情境下执行正确的决策,其中的主要挑战包括如何处理多个智能体的不确定行为,以及如何在 “Desires” 策略和难以控制的路径规划之间实现平衡。
Oct, 2016
该研究介绍了一种基于神经符号元强化前瞻学习(NUMERLA)的在线元强化学习算法,采用前瞻更新机制实现了自动驾驶模型在非稳态城市人车交互场景下的实时适应性和安全性。
Sep, 2023
通过集成大型语言模型(LLM)与强化学习(RL)和 PID 控制器,本研究提出了一种名为 HighwayLLM 的新方法,用于实现高速公路自动驾驶的安全、无碰撞、可解释的决策过程。
May, 2024
本文提出了一个基于分析易任务知识对困难任务进行指导以增强驾驶模型泛化力和事故解释能力的新型驾驶模型,通过多任务感知相关基础知识和驾驶知识的逐步训练,成功地提高了驾驶模型的平均完成率,使其在未训练的城市和天气中大幅优于当前基准方法。
Sep, 2018
利用大型语言模型优化强化学习的奖励功能,使自动驾驶代理在行为上更加灵活、精准和类人化,探究奖励设计在塑造自动驾驶车辆行为中的重要影响,为更先进、类人化的自动驾驶系统的发展提供了有希望的方向。
May, 2024
本文提出了一种名为 MQLC 的方法,它通过整合混合价值 Q 网络,同时考虑集体和个体效益,以解决自主车辆路径规划中的车道变换决策问题。通过在观察中整合基于深度学习的意图识别模块并加强决策网络,使多主体系统能够有效地学习并制定最佳决策策略,从而显著提高车道变换的安全性和速度。
Jun, 2024
本文提出了一种基于分层强化学习的自动驾驶决策方法,通过将驾驶任务分解为三个操作并使用全连接神经网络训练各个策略,实现了在高速公路驾驶场景中平稳、安全的自动驾驶决策。
Jan, 2020
本文提出了一种基于离线多智能体强化学习(MARL)的多机器人社交感知和高效协同规划方法,使用时间 - 空间图(TSG)进行社交编码,引入 K 步先见奖励设置,并改进了传统的集中式批判者网络,从而在多群组实验中验证了该方法的有效性。
Nov, 2022