- 提升单一领域通用目标检测:注意多样化和对齐
解决目标检测的领域泛化问题,通过多样化源域和基于类别预测置信度和定位的对齐检测,并在安全关键应用中做出准确决策。
- 架构修改对深度学习对抗鲁棒性的影响
通过对深度学习模型的鲁棒性进行实验评估,我们的研究旨在揭示模型修改对深度学习模型的可靠性和安全性在安全和保密关键应用中的重要性。
- SAFE-RL:针对深度强化学习策略的显著性感知因果解释器
深度强化学习在复杂控制任务中显示出了极大的潜力,然而学习策略的不可解释性限制了其在安全关键应用(如自动驾驶系统)中的应用。为了解决这些问题,本文提出了一种使用显著性地图识别代理过去观测状态序列中影响力最大的输入像素,并将该地图馈送到深度生成 - 探索神经模型分类鲁棒性的精确观察
深度学习和鲁棒性在安全关键应用中的测评方法以及概率鲁棒性的权衡和使用条件进行了比较分析,提出了一种基于假设检验的直观实用测量标准,并将其整合到 TorchAttacks 库中,为对模型鲁棒性的理解做出了贡献。
- 对 Arm Ethos-U55 嵌入式机器学习加速器软错误容忍性的表征
通过大规模的 RTL 级故障注入以及选择性保护硬件结构,本研究对 Arm 的 Ethos-U55 进行可靠性研究,展示了满足 ASIL-D 安全标准的优化配置,并在仅增加 38% 面积开销的情况下实现安全性。
- PITA: 物理知识引导的轨迹自编码器
为了在安全关键应用中验证机器人系统,需要进行多种场景的测试,包括不太可能发生的稀有边缘情况,需要通过在仿真中进行测试来补充真实世界的测试。我们提出了一种新颖的物理信息轨迹自编码器(PITA)架构,通过在自编码器的损失函数中融入物理动力学模型 - 基于固有安全设计和运行时错误检测的安全关键应用深度学习认证框架
基于深度学习的认证在安全关键应用中是一个非常重要的问题,本文通过研究使用于航空等安全关键领域的实际问题,调查机器学习研究社区中针对深度学习系统鲁棒性和可靠性验证的方法学,并提出了一个新的基于安全设计和运行时错误检测的深度学习认证框架。
- DeepCDCL: 基于 CDCL 的神经网络验证框架
提出了基于冲突驱动子句学习算法的新型神经网络验证框架 DeepCDCL,通过引入异步子句学习和管理结构,与直接应用 CDCL 框架相比,减少了冗余的时间消耗。同时,在 ACAS Xu 和 MNIST 数据集上对我们的方法的性能进行了详细评估 - 掩蔽 Gamma-SSL:通过掩蔽图像建模学习不确定性估计
该研究提出了一种语义分割网络,能够在单次前向传递中生成高质量的不确定性估计。通过基于掩膜图像建模(MIM)方法,我们利用基础模型和无标签数据的通用表示来解决增强超参数问题,使得方法更简洁。为了解决在安全关键应用中因训练数据中的偏差而导致的错 - 安全优化增强学习通过多目标策略优化
基于多目标策略优化框架的新型无模型安全强化学习算法引入,通过环境奖励函数和安全评论家对策略进行优化,以实现在不违反约束条件的情况下同时达到最佳和安全性。该算法通过理论分析提出了收敛策略的安全性保障条件,并引入了一个攻击参数,允许对所述权衡进 - 基于人工智能的汽车应用软件元素具备的固有多样冗余安全机制
通过研究自动驾驶系统中基于人工智能的算法,本文探讨了人工智能模型的作用和挑战,特别是在复杂和高维环境中执行实时关键功能的软件元素。针对安全关键应用,为了减少 AI 模型过于自信带来的风险,提出了一些培训方法,如实现确定性报告架构和确保多样性 - 合成数据的实例级安全感知逼真度及其校准
通过模拟和校准合成数据的逼真度,可以为安全可靠的自动驾驶技术的未来塑造提供一种经济实惠且可扩展的替代方案,从而避免实际数据采集的高成本。我们着重关注其在安全关键应用中的作用,引入四种超越单纯视觉输入特性的实例级逼真度。我们提出了一种优化方法 - 卷积神经网络中分类误差估计的随机方法
本技术报告在安全关键应用中,研究了用于图像分类的经过训练的卷积神经网络(CNN)的验证结果。通过使用 ANSI/UL 4600 和 ISO 21448 等新标准,结合现有标准 EN 50128 和 EN 50129,证明了类似 Grade - 验证友好的深度神经网络
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
- 使用因子图对经过训练的深度神经网络进行不确定性传播
预测不确定性估计是一个具有挑战性的问题,阻碍了深度神经网络在安全关键应用中作为子系统的使用。我们通过将不确定性传播视为非线性优化问题,采用因子图的方法,观察到在大部分实验中(包括三个数据集和两种神经网络架构),相较于以前的工作,在性能方面取 - 多模态知识提取与分析中的 LLMs 在智能 / 安全关键应用中的应用
大型语言模型在最近几年取得了迅猛的进展,其能力正在不断加速,通过各种基准测试,其能力接近于人类的水平。由于存在未解决的脆弱性和限制,人们在将这些模型应用于智能和安全关键应用之前需要谨慎。本文回顾了与 LLM 评估和脆弱性相关的最新文献,综合 - 数据流中漂移检测的不确定性估计技术的实证研究
通过使用不确定性估计方法作为错误率的替代物来检测漂移,本研究对七个真实世界数据集进行了全面实证评估,旨在减少对标签较少且昂贵的部署后数据的依赖。结果表明,尽管 SWAG 方法表现出更好的校准性,但不确定性估计方法的选择对于检测漂移的整体准确 - 科学领域中基于检索增强语言模型的不确定性量化的实证评估
通过在科学任务中综合评估检索增强的语言模型中的不确定性量化,本研究旨在填补检索增强语言模型不确定性量化方面的研究空白,发现检索语料库中包含的科学知识无法解决模型对预测结果过度自信的问题。
- 运行时监测基于深度学习的感知
深度神经网络在复杂感知系统方面起着重要作用,但为了确保其功能不足不会造成危害,除了静态验证和测试方法外,还需要运行时验证技术来检测关键事件、诊断问题并强制执行要求。本教程介绍了文献中提出的技术方法,包括机器学习界经典方法和形式方法界的一些技 - 评估目标检测中的不确定性校准的理论和实践框架
本研究提出了一个理论和实践框架,用于评估不确定性校准的对象检测系统,通过一系列的实验表明了所提出的不确定性校准度量的稳健性。