- 利用高斯过程进行虚拟环境中人机交互的安全运动预测
通过使用高斯过程模型来预测人手运动并基于手势和凝视开发人类意图检测策略,本研究旨在提高协作机器人的效率,并改善人类用户的安全性。对比结果显示,预测模型使机器人时间提高了 3%,安全性提高了 17%;与凝视结合使用时,使用高斯过程模型的预测使 - 使用高斯过程的数据驱动力观察器进行人机交互与串级弹性执行器
应用弹性执行器合并高斯过程回归,学习未知动力学成分,提高估计准确性,同时考虑本地模型不确定性的观察者,在安全关键应用中进行了实验验证。
- 使用贝叶斯世界模型和对数障碍优化的安全探索
一种用于处理约束马尔可夫决策过程的安全强化学习方法 CERL 被提出,该方法通过利用贝叶斯世界模型并建议对模型的认知不确定性持悲观态度的策略,确保了安全性和学习过程中的安全探索,实验结果显示 CERL 在处理基于图像观察的 CMDP 的安全 - 安全强化学习中平衡奖励与安全性优化:梯度操控视角
利用梯度操作理论解决强化学习中奖励和安全之间的冲突,通过提出一种软切换策略优化方法实现奖励和安全的平衡,进而提供一个安全强化学习框架。
- 强化学习自适应控制正则化在关键系统安全控制中的应用
强化学习是控制动态系统的强大方法,但其学习机制可能导致不可预测的行为,从而损害关键系统的安全性。本文中,我们提出了一种具有自适应控制正则化的强化学习方法(RL-ACR),通过将强化学习策略与控制正则化器结合起来,确保强化学习的安全性,并对预 - 学习稳定、安全、分布式反馈控制器用于异构车队
自动驾驶车辆的编队技术有潜力提高公路上的安全性和燃油效率。本论文介绍了一种用于学习分布式稳定安全控制器的算法,该算法依赖于最近在神经网络稳定性和安全证书方面的发展。通过在仿真和 100 辆车的编队中评估,实验结果表明了该算法和学习控制器的实 - S4TP:自主驾驶车辆的社交适宜和安全敏感轨迹规划
为了实现安全的自主驾驶,本文提出了一种社交适宜和安全敏感的轨迹规划框架,通过整合社交感知轨迹预测和驾驶风险评估模块,实现对自动驾驶车辆和人工驾驶车辆之间的交互风险的有效评估和规划优化,提高规划轨迹的安全性和解释性。
- 自主车辆的在线时空图轨迹规划器
本文介绍了一种新颖的在线时空图轨迹规划器,用于生成安全且舒适的轨迹。通过构建时空图,并进一步传递给顺序网络,该规划器能够生成符合安全与舒适要求的状态。此外,还提出了一个简单的行为层用于确定轨迹规划器的动力学约束,并提出了一种新颖的潜力函数来 - 海洋柴油发动机数据驱动的故障诊断技术调查
海洋柴油机故障诊断的重要性,强调子系统、常见故障和数据驱动方法在保证海洋柴油机维修有效性方面的最新进展。
- 大型语言模型对齐与安全的基础挑战
针对大型语言模型(LLMs)的对齐和安全问题,本研究确定了 18 个基础挑战,并将其组织成科学理解、开发和部署方法以及社会技术挑战三个不同类别。根据这些挑战,我们提出了 200 多个具体的研究问题。
- 自主驾驶背景下的强化学习奖励函数综述
该论文综述了强化学习在自动驾驶中的应用,讨论了奖励函数的设计挑战、不足之处以及未来可能的研究方向。
- CVPROpenBias:文本到图像生成模型中的开放集偏差检测
本研究提出了一种名为 OpenBias 的新管道,旨在对文本到图像生成模型中的开放集偏见进行识别和量化,并通过定量实验证明 OpenBias 与目前的封闭集偏见检测方法和人类判断一致。
- LaPlaSS: 随机系统的潜空间规划
我们提出了一种 “生成 - 测试” 方法,用于在无已知动力学模型的自主移动代理中以有界风险进行规划,并使用变分自动编码器学习潜在线性动力学模型来生成候选轨迹。
- 重新思考以评估语言模型破解
提出了三个指标来评估语言模型的越狱,分别是安全违规、信息性和相对真实性,并展示了这些指标与不同恶意用户的目标之间的相关性,通过预处理响应扩展了自然语言生成评估方法来计算这些指标,对来自三个恶意目的数据集和三个越狱系统产生的基准数据集进行了评 - 开放自主安全案例框架
基于自动驾驶车辆行业多年的工作,本文介绍了开放自治安全案例框架作为如何安全和负责任地部署自动驾驶车辆的指导路线。
- 警示:通过红队测试全面评估大型语言模型的安全性的综合基准
应用 ALERT 基准评估安全性,通过对大规模语言模型进行对抗测试,识别漏洞,改进并提高语言模型的整体安全性。
- 构建安全负责的大语言模型 -- 一个综合框架
为了提高语言生成模型的安全性,我们引入了安全可靠的大型语言模型 SR$_{ext {LLM}}$,通过使用细致标注的数据集和多种方法来识别潜在的不安全内容,并生成无害的变体。经过对多个数据集的测试,我们观察到不安全内容的生成显著减少,同时在 - 通过可控的大型语言模型实现安全性和帮助性平衡的响应
我们提出通过在大型语言模型中控制安全性和有益性来平衡多种用例,采用训练无关和微调方法来分析在语言模型中控制安全性和有益性的挑战,并通过实验验证了我们的方法可以控制模型并提供帮助。
- 您的 “安全” 数据中有什么?:识别破坏安全性的良性数据
通过双向锚定方法优先选择与有害示例接近但远离良性示例的数据点,我们的方法有效地识别了在微调后可能降低模型安全性的良性数据子集。
- 可解释人工智能在端到端自动驾驶中的安全影响
当和如何可以解释性改善自动驾驶安全性是本文的主要研究领域和话题之间的关系。