本文利用变分自编码器实现了对开放分布数据(OOD)的检测,在对结果进行了准确度量和规范约束后,使用 CARLA 数据集对此方法进行了验证。
Apr, 2023
通过提出一种简单易实现、产生直观可解释输出的神经网络置信度学习方法,我们成功地实现了对神经网络预测错误的检测以及超出安全执行区域的检测,在该任务中表现优异,并在不需要额外标签或进入区别于正常数据集之外的样本的情况下超过了最近提出的指标构建方法。此外,我们还解决了置信度检测器校准问题,即我们证明被错误分类为正常数据集的正常样本是超出安全执行区域的样本的良好替代品。
Feb, 2018
本文旨在评估基于机器学习方法的异常检测算法对于两种意外和恶意干扰的鲁棒性,在结合领域知识的前提下实验结果表明,基于领域知识训练的机器学习算法能够有效地降低鲁棒性误差并提高透明度。
Apr, 2022
提出一种基于深度强化学习的错误检测方法,不仅可以高精度检测错误,而且检测时间非常短,并可以对不同类型的错误进行分类,评估结果表明该方法在准确性和推理时间方面的性能得到了显著提高。
Feb, 2023
本文提出了一种新的基于数据驱动的系统范围异常检测框架,其基于符号动力学的概念构建了一种时空特征提取方案,用于发现和表示 CPS 子系统之间因果相互作用,结果表明,该框架可以用于捕获多种正常模式并检测若干的从低级子系统到高级子系统的故障传播路径。
Dec, 2015
采用可解释人工智能 (XAI) 方法,使用不同的度量标准来识别样本的相似程度,验证模型非参数和分布假设的假设,检测机器学习中最关键的问题之一 —— 超出分布检测,并在预测维护、车队编队和网络安全等复杂情境中进行了验证,得出了精确的检测和对训练 - 操作条件的评价。
Mar, 2023
在本研究中,我们提出了一种新的损失函数和网络训练方法,以提高密度感知的开放世界环境中对异常和越界样本的检测能力,并在 CIFAR-10 数据集上进行了验证,将相对马氏距离方法在远距离越界任务中的错误正例率降低了 50% 以上。
Nov, 2023
本文提出了基于深度学习的异常检测(Deep Learning-based Anomaly Detection,DLAD)方法,对当前 CPS 领域内的 DLAD 现有方法进行了分类和总结,探讨了其设计特点、局限性和未来研究方向。
Mar, 2020
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
本研究评估了深度学习模型在多变量时间序列数据方面的稳健性和泛化性能,发现某些 DL 模型体系结构和训练技术在处理各种干扰和超出分布样本时表现更为出色,这为开发在实际 CPS 应用中能够提供可靠且鲁棒性能的 DL 模型带来了重要的启示。
Jun, 2023