具有可靠性保证的混合卷积神经网络
部署神经网络在资源受限的安全关键系统中面临不确定性和硬件非理想性所带来的挑战,该研究论文总结了一项 (四年级) 博士论文工作,该工作探索了深度学习中可扩展和高效的方法,包括计算内存 (Computation-in-Memory) 使用新兴的阻性非挥发性存储器来估计和降低不确定性。我们采用问题感知训练算法、新颖的神经网络拓扑结构和硬件协同设计解决方案,包括基于自旋电子器件的基于退化的二值贝叶斯神经网络和变分推理技术。这些创新显著提高了异常数据检测、推理准确性和能量效率,从而增加了神经网络实现的可靠性和鲁棒性。
Jan, 2024
本文研究了 DNN 加速器的逼近计算和容错能力,提出使用逼近算术电路代替昂贵的故障注入检测,并开发了 GPU 模拟方法,同时通过网络故障的传播和掩蔽来实现精细化容错分析
May, 2023
本文提出一种针对深度神经网络在训练和模型设计时提高其可靠性的解决方案,旨在解决硬件故障导致对模型预测出现错误等问题。在研究中通过 DNN 重新设计、重新训练等方式,提出三种零附加成本的解决方案,可以在一定程度上提高 DNNs 对于瞬态故障的可靠性,并通过广泛的消融研究量化了每种硬化组件的性能提升。
May, 2022
通过研究自动驾驶系统中基于人工智能的算法,本文探讨了人工智能模型的作用和挑战,特别是在复杂和高维环境中执行实时关键功能的软件元素。针对安全关键应用,为了减少 AI 模型过于自信带来的风险,提出了一些培训方法,如实现确定性报告架构和确保多样性训练数据。此外,还讨论了现有方法在安全关键应用中的适用性,强调了其优点和局限性,并提出了提高自动驾驶车辆中人工智能算法安全性和可靠性的潜在改进措施。
Feb, 2024
本文提出了一种机器学习可靠性指标,可以评估神经网络在不同的操作条件下的成功概率,并通过设计安全功能来减少有害失效,同时在维持高成功概率的前提下,在机器人操纵任务中进行了实际应用测试。
Dec, 2019
本文提出了利用冗余性展示卷积神经网络性能稳定性的机制和利用单位脉冲响应理解反应的冗余性的方法,并提供了在几个网络上展示冗余性的示例,这些技术可以更好地理解卷积神经网络的内部动态。
Jun, 2019
为了解决人工智能模型的可靠性和可信度问题,本文提出了一个名为 NeuralSentinel(NS)的工具,结合攻击和防御策略以及解释性概念来验证 AI 模型的可靠性和可信度,并帮助非专业人员通过理解模型决策来增强他们对这一新系统的信心。该工具在一个黑客马拉松活动中部署和使用,用于评估皮肤癌检测器的可靠性,并通过攻击和防御活动学习出导致模型错误分类的最重要因素和最有效的技术,同时检测 NS 的局限性并收集反馈以进行进一步改进。
Feb, 2024
本文通过图像分类示例调查深度学习(DL)训练算法的不确定性及其对神经网络(NN)模型可解释性的影响,探讨了创建实用性强的确定性,鲁棒性高的 DL 模型和确定性可解释人工智能(XAI)的可行性。并说明了其工作的成功与局限性,确定性模型的源代码已在本文中列出,同时介绍了欧盟在卓越人工智能的框架内提出的模型治理框架开发阶段组件所标注的可重复性,并探讨了在实现可重复性的过程中需要解决的问题以及处理某些问题的方法。
Feb, 2022
本文提出了一种神经网络模型减缩的方法,通过精确计算模型减缩精度,将减缩后的神经网络控制器替换成封闭回路系统,进而提高安全验证的计算效率,并通过自适应巡航控制系统的案例验证了方法的有效性。
Jan, 2023