一种具有安全保障的人类启发感知架构
近期深度学习领域的进展以及深度神经网络对感知任务取得的出色表现,引发了在自动驾驶系统中使用它们的需求。为了系统地保证基于深度神经网络的自动驾驶系统的安全性,本文引入了一种称为安全关注的结构化元素,扩展和完善了其概念,并引入了额外的分类,以促进跨职能团队共同解决相关问题。
Sep, 2023
本文应用正式的概率分析技术对一种通过感知深度神经网络(DNN)引导飞机滑行的实验自主系统进行了案例研究,通过使用代表性图像数据集计算 DNN 的混淆矩阵来替换摄像机和网络,构建紧凑的概率抽象,以解决感知 DNN、传感器和环境条件的复杂性所带来的挑战,并展示了如何利用本地、DNN 特定的分析作为运行时保护,以提高整个系统的安全性。
Feb, 2023
研究使用深度学习算法来实现自动驾驶,考虑到道路中非常脆弱的对象(如行人)的安全,文章使用参与式方法进行在线调查,以确定混淆一个语义类别与另一个语义类别的代价结构,并对调查结果进行了分析和讨论。
Jun, 2022
介绍了一种利用自动综合假设的方法,对基于深度神经网络的自主系统的安全属性进行形式化验证,生成最弱的假设并将其用作运行时监视器以保证整个系统的安全性,在一个来自自主飞行器领域的复杂视觉感知 DNN 案例上实现了该方法。
May, 2023
研究通过提出 50 个技术要求或最佳实践,扩展现有标准以考虑基于深度神经网络的系统的具体需求。研究还证明了这些要求的适用性、有用性和意义,在特定的 DNN 交通标志识别系统的审计中得到了验证。
Feb, 2023
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
该研究提出了双重思维框架,通过引入对抗性数据集证明了人类视觉中双重思维的存在,同时研究了深度学习模型的定性行为,并通过使用实例分割模型来解决使用分类模型作为人类视觉计算模型的主要批评。该研究强调了形状在人类视觉中识别实例的重要性,并显示深度学习模型缺乏对子结构的理解,表现为与子组件的位置和数量相关的错误。此外,模型和人类直觉处理所犯错误的相似性表明模型仅涉及人类视觉中的直觉思维。
Jun, 2024
通过提出受到二元过程理论(DPT)启发的基于注意力机制的认知架构,结合快速启发式(类似人类)反应和机器智能的优化规划能力,我们展示了如何通过评估其在多个不同属性上的表现,动态决定二者的参与度以优化任务目标,并在动态环境中的轨迹规划中验证了该框架有效地管理复杂任务并优化多个任务目标。
Apr, 2024
本文研究计算机视觉、深度神经网络(DNN)、人类视觉感知和无体系结构视觉学习之间的联系,并发现 DNN 计算可用于估计感知损失,并与有趣的理论观点一致,即人类感知的特性是视觉学习无体系结构的结果。
Jan, 2017
AI 系统在各个领域取得了令人瞩目的成绩,然而其安全性和可靠性仍然是一个重要的关注点,特别是对于安全关键任务。本论文旨在通过进一步开发当前技术来确保安全关键任务的准确模型不确定性。
Aug, 2023