隐性集合的集合:大模型中的认识不确定性崩溃
该论文提出了一种名为深度子集合(Deep Sub-Ensembles)的方法,通过仅对接近输出层的层进行集成,从而近似获得深度集合(Deep Ensembles)的模型不确定性, 在减少计算负担的同时,控制了误差和NLL的变化,来实现在误差和不确定性精度和计算性能之间的权衡。
Oct, 2019
深度集成是一种用于深度学习中不确定性量化的最新技术,本研究通过指定相关假设,证明了其可视为近似贝叶斯方法,该发现有助于改进估计并增大认识不确定性,数值实验表明这种改进有助于提高鲁棒性,同时可以通过分析导出方便计算的结果。
May, 2021
本文提出了一组新的方法,可以通过单次前向传递来估计深度神经网络中的认识不确定性,这些确定性不确定性方法在表示信息的前提下,在检测超出分布数据(OOD)方面表现出强大的性能,同时几乎不增加推理时间的计算成本。然而,DUMs是否校准良好且是否可以无缝地扩展到实际应用仍不清楚。本文对DUM进行分类和评估,发现当前方法的实用性受到分布移位校准的限制。
Jul, 2021
本文提出了一种使用反正则化和控制过程的方法,来解决深度集成网络中的过度自信估计问题,该方法不需要任何超参数校准,并在回归和分类设置中得到了验证。
Apr, 2023
利用对抗模型量化不确定性提高估计认知不确定性的准确性,相较于现有方法,Quantification of Uncertainty with Adversarial Models能够更好地捕捉深度学习模型中的认知不确定性。
Jul, 2023
该研究以深度神经网络模型为对象,研究了其在处理异常情况(如分布外或扰动数据)时的不确定性。研究通过实验证明,使用预训练模型进行分类对于异常图像表现良好,基于概率平均的集成模型能够进一步提高分类性能,而添加扰动会显著影响模型的鲁棒性,表明了人工智能模型的局限性。
Sep, 2023
Diffusion Ensembles for Capturing Uncertainty (DECU) is an innovative framework designed to estimate epistemic uncertainty in generative diffusion models by efficiently training ensembles of conditional diffusion models with a static set of pre-trained parameters and employing Pairwise-Distance Estimators (PaiDEs) to accurately measure epistemic uncertainty in high-dimensional spaces.
Jun, 2024
通过实验,我们观察到“认知不确定性孔洞”现象,即在大型模型和少量训练数据存在时,认知不确定性会明显降低,这与理论预期相反。该现象对基于认知不确定性的贝叶斯深度学习的实际应用产生问题,特别是在超出分布样本检测方面。
Jul, 2024
基于实验研究,证据深度网络产生的认知不确定性在某些情况下违反预期,这引发了对其准确性的质疑。在此基础上,我们提出了一种深度集成的正规化函数,称为冲突损失,以满足认知不确定性的两个要求,并且不损害深度集成的性能或校准性。
Jul, 2024