自主智能代理人能力评估的不确定性量化
本论文提出了一种基于最先进的模拟器的框架,以评估端到端 Bayesian 控制器,实验评估了不同场景下用于避碰的不确定性计算的质量并表明不确定性估计可大大帮助自动驾驶车辆的决策。
Sep, 2019
使用贝叶斯不确定性量化方法对深度学习领域的安全关键性行为进行评估,以实现在系统级仿真测试中对系统行为进行准确预测并提供及早的警告,研究发现深度集成方法能够有效并高效地检测并避免潜在的系统行为失控,为建立深度神经网络自主驾驶汽车的故障安全机制提供了可行的方法。
Apr, 2024
本论文提出了新方法来研究自然语言处理(NLP)任务中表征模型和数据不确定性的好处,通过在卷积和循环神经网络模型上的实证实验,展示了明确建模不确定性不仅有利于测量输出置信水平,而且对于提升各种 NLP 任务中的模型表现也是有用的。
Nov, 2018
本文讨论了 Deep Neural Networks 在自动驾驶领域中的应用,提出了一种实时提取不确定性量化度量的方法,并使用此方法预测了潜在的崩溃事件。
Nov, 2018
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
本文研究了自主车辆在安全关键任务中使用神经网络时,面临的不可避免的误差问题,并给出了一些用于评估这种不确定性的方法和指标,比较了各种不确定性量化方法在特定 AV 任务和类型的优劣。
Jun, 2020
在本文中,我们针对视觉 - 语言人工智能系统提出了关于不确定性的分类法,区分了由于信息缺乏而产生的认识不确定性和由于固有不可预测性而产生的因果不确定性,并进一步探讨了更加精细的分类。基于这个分类法,我们构建了一个对比性数据集 CertainlyUncertain,其中包含 178K 个视觉问答样本,通过对图像进行修复使原本可以回答的问题变为不可回答,并利用图像标题来引发大型语言模型回答可回答和不可回答的问题。此外,我们引入了一项新的指标 —— 置信加权准确率,它与准确率和校准误差都具有很好的相关性,以解决现有指标的不足之处。
Jul, 2024
针对机器学习模型影响采纳的关键因素之一 —— 信任,本研究提出了一组特征量,可以表征一个实例的复杂程度,并借助元学习框架评估误分类的风险。该框架在提高模型开发的复杂性方面具有潜在的应用前景,同时提供新的模型自我阻抗和解释手段。
Apr, 2023