基准测试不确定性分离:专用任务的专用不确定性
该论文提出了一种深度学习可扩展的确定性和不确定性评估框架,并对两种最先进的可扩展方法进行了比较,即集成和MC-dropout,结果表明集成方法提供更可靠和实用的不确定性估计。
Jun, 2019
本文综述了学习因素分离和表示在人工智能中的重要性,提出了影响因素分离度量的三个家族,即基于干预、基于预测和基于信息的,通过实验和分析揭示了具有因素分离特性的表示的属性之间的关系,并提供了衡量因素分离的指导方针。
Dec, 2020
本文通过对文献的元分析,发现大多数计算机视觉应用都没有使用恰当的认识不确定性量化方法,从而忽略了模型自身的局限性。我们描述了使用没有适当的不确定性量化的模型所产生的后果,并激励社区采用具有适当校准的认知不确定度的模型版本,以实现让模型具有识别未知数据集的能力。在本文中,我们还总结了计算机视觉应用程序中不确定性估计的挑战和建议。
Apr, 2021
研究神经网络的不确定性问题,提出了一种新的不确定性量化方法,能够区分aleatoric和epistemic uncertainties,实验证明Ensembles可以提供整体性最好的解决方案,同时推荐采样softmax函数的超参数N大于100。
Apr, 2022
该论文提供了一种基于量化回归的方法来量化生成模型中语义信息潜空间在语义限制条件下的不确定性,从而为诸如图像超分辨率和图像完成等逆问题提供了可靠的,基于实例的,具有语义信息含义的不确定性可视化。
Jul, 2022
在这项研究中,我们将当前研究中不确定性方法的三个关键问题与缺乏系统和全面的评估方法相联系,并提出了一种评估框架,通过提供1)用于研究数据模糊性和分布变化的受控环境,2)对相关方法组件进行系统性切割,以及3)用于五种主要的不确定性应用(OoD检测,主动学习,故障检测,校准和歧义建模)的测试基准,来弥补研究差距。对于模拟数据和真实世界数据的实证结果表明,所提出的框架能够回答该领域的主要问题,揭示了例如:1)不确定性类型的分离在模拟数据上是有效的,但不一定适用于真实数据,2)分数的聚合是不确定性方法中重要但目前被忽视的组件,3)尽管集成模型在不同下游任务和设置中表现最为稳健,但测试时间增强常常作为一种轻量级的替代方法。
Jan, 2024
该研究解决了机器学习中不确定性量化的一个重要问题,即如何有效区分来自数据随机性(内在不确定性)和模型局限性(外在不确定性)的不确定性。通过实验比较了信息论方法和高斯对数法两种分离不确定性的方法,结果表明信息论方法能更好地实现分离,但两种不确定性仍相互污染,提供了一套评估有效分离的不确定性标准。
Aug, 2024
本研究解决了在使用预训练潜在表征时缺乏不确定性估计的问题。通过将不确定性估计直接添加到潜在表征向量中,提出了基于概率和决策理论的新方法,并提供了一个不确定性感知的表征学习基准,验证了该方法的有效性。本研究不仅加深了对潜在变量不确定性的理论理解,还为今后研究者提供了易于获取的不确定性量化工具,推动了安全可靠的机器学习进步。
Aug, 2024
本文研究了多模态基础模型在机器人感知和规划中的应用,特别是如何处理感知和决策过程中的不确定性。提出一个综合框架,分离、量化和减轻这两种不确定性,采用配适性预测和形式化方法引导预测量化决策不确定性。实验证明,该框架使不确定性变化减少了40%,任务成功率提高了5%,有效提升了自主系统的鲁棒性和可靠性。
Nov, 2024