- 面向本体机器学习的鲁棒训练数据集:紧急道路车辆检测案例研究
通过验证训练数据集的领域完整性和图像质量鲁棒性,提高安全关键领域中机器学习模型的可信度和鲁棒性,并通过紧急道路车辆领域的本体构建实验进行了概念性证明。
- 深度强化学习的验证引导屏蔽
通过整合形式验证和概率验证工具,将输入域划分为安全和不安全区域,通过聚类和符号表示过程对不安全区域进行压缩,从而在(潜在的)不安全区域高效地临时激活防护,显著减少运行时开销并保持形式安全保证。
- 面向可解释的强化学习与约束归一化流策略
通过限制性归一化流策略模型作为可解释且安全的构建方式,我们实现了一种安全的强化学习方法,该方法可以满足即时安全限制,并且在整个学习过程中保持约束满足,同时提供领域知识,以提高解释性、安全性和奖励工程的效果。
- 构想 MedCLIP:医学视觉语言模型的可解释性深入探究
分析多模态模型的解释性性能以及提出克服这些方法的缺点的简单方法,并提供对医学领域中解释性的新观点,该评估方法具有普适性。
- 图像文字表示的多模态信息瓶颈归因的视觉解释
通过多模态信息瓶颈(M2IB)方法,本文提出了一种改进视觉 - 语言预训练模型的可解释性的方法,学习将相关视觉和文本特征保留并压缩无关信息的潜在表示。在安全关键领域如医疗保健中应用 M2IB,展示了其在视觉 - 语言预训练模型的归因分析上提 - 基于可微凸规划的约束元元强化学习用于可调适安全保证
通过元学习方法,本文研究了在非稳态环境下确保安全性的独特挑战,并采用可微凸规划的连续凸约束策略更新,以实现在受限环境中的元学习和快速任务适应。
- 医学摘要中省略的外在评估
我们提出了一种针对医学摘要的新的遗漏评估基准 MED-OMIT,通过模拟每个事实对下游临床任务(鉴别诊断生成)的影响,将医生 - 患者对话和生成的摘要分类为一组事实并识别其在摘要中的遗漏。我们使用基于 LLM 提示的方法对事实的重要性进行排 - 学习能力安全关键系统的可证明保证究竟是什么
机器学习在安全关键领域的使用依然存在挑战,论文讨论了这些挑战,提出了一种基于两步验证方法的可证明统计保证实现的方式。
- System III: 使用领域知识进行学习以满足安全限制
提出了一种新颖的框架,在强化学习代理中引入领域知识以促进安全探索和提高样本效率,该方法在 OpenAI 的 Gym 和 Safety-Gym 环境中的任务中均表现出了更安全的探索和更高的样本效率。
- ICLR通过稀疏高斯过程校准 Transformers
使用稀疏高斯过程关注机制的变压器模型在多个预测任务上实现了具有竞争力的预测准确性,并提高了内部标定和区外鲁棒性检测。
- 有界预知下的 Atari 游戏防护
针对深度强化学习在安全关键领域中的应用,本研究提出了一种确保 Atari 电子游戏中 DRL 智能体安全的方法,仅需使用仿真器即可进行分析,此方法可有效提高智能体的安全性。
- 神经桥抽样用于评估安全关键自主系统
本文提出了一种基于概率方法的安全性评估模拟方法,能够快速地对危险事件进行探测和评估,并证明了方法在统计和计算效率方面的优越性,最后在多种场景下进行了测试,证明了该方法对于开发和测试安全关键自主系统的敏感性分析和模型比较的重要性。
- 高斯过程回归的一致误差界及其在安全控制中的应用
本文利用高斯过程分布和连续性论证推导出一种新的弱假设下的统一误差界,分析了概率 Lipschitz 常数的演变和 Gaussian Process 模型控制未知动态系统的安全条件,且采用模拟程序验证了此方法的有效性。
- 评估端到端自动驾驶控制中的不确定性量化
本文讨论了 Deep Neural Networks 在自动驾驶领域中的应用,提出了一种实时提取不确定性量化度量的方法,并使用此方法预测了潜在的崩溃事件。