通过对神经网络的深度进行概率推理,我们能够只需一次前向传播,就能估计模型的不确定性。在真实的回归和图像分类任务中,我们验证了这一方法的效果,并证明它能提供不确定度校准、对数据集变化的鲁棒性和与计算成本更高的基线准确度相当的预测结果。
Jun, 2020
通过级联深度学习模型在医学影像流水线中传播不确定性,我们提出了一种建立可解释的神经网络的不确定性估计方法,并展示了其在重建脑和膝盖磁共振图像以及预测定量信息方面的效用。
Sep, 2023
该研究开发出一种称为 UTrans 的可解释性统一转移学习模型,它可以检测可转移的变量和源数据,并基于假设检验提出源检测算法来排除不可转移的数据,通过多次实验比较预测误差和解释性等因素,表明 UTrans 相对于现有的算法具有较低的误差和更好的解释性,并将其应用于美国代际流动数据并将其与经典机器学习算法进行比较。
Jul, 2023
我们提出了 LayUP,这是一种基于类原型的持续学习方法,利用预训练网络的多个中间层的二阶特征统计。与最佳基准线相比,LayUP 在七种类增量学习设置中提高了四种,并且在内存和计算资源占用方面大大减少。我们的结果表明,充分利用预训练模型在持续学习中的表示能力远不止于最终嵌入。
Dec, 2023
本文介绍了一种新方法 —— 不等误差保护(ULP),通过特征重要性估算器来选择性应用前向纠错(FEC)码以保护重要的数据包以提高协同智能系统的鲁棒性和可靠性。
本文提出了一种称为 EFTs 的简单的任务特定特征映射转换策略,具有强大的灵活性,利用最小的参数增加了基本体系结构,使其在大规模场景下实用;我们还提出了一种特征距离最大化策略来完成类增量设置中的任务预测。通过在较广泛的一系列任务序列中的实验,包括区分性任务和生成任务,证明了该方法的实效性和效率。
Mar, 2021
该研究提出了一种基于类别和层次深度特征分布建模和利用的新型对抗攻击方法,其可实现针对未受保护的 ImageNet 模型的最先进的有针对性的黑盒转移攻击结果,并且具有攻击过程可解释性和可解释性的优先级。
Apr, 2020
本文提出一种新的体系结构和损失函数,以训练生成模型以预测未标记的自然视频序列中的帧,解决了无监督设置下训练这种层次结构的问题,并通过引入非确定性函数的潜在变量来解决预测中固有的不确定性问题。
Jun, 2015
该论文研究神经网络层内部如何保留拓扑特征。使用拓扑数据分析技术,计算了一个简单前馈神经网络的层表征在类克莱因瓶扭结构变化下的拓扑特征。在较早层,网络看起来近似于同胚,但在较深层时数据的拓扑结构被明显更改,导致持久同调无法计算这些特征。但在具有双射激活函数的网络中,类似的拓扑特征似乎可以更持久地存在。
Jul, 2022
本文扩展了 Factorised Neural Relational Inference 模型,加入了输出每个相空间向量部分的均值和标准差以及相应的损失函数,以解决神经网络在多交互轨迹重建中缺乏输出不确定性估计的问题。本文研究了多种损失函数,包括凸函数和 Bayesian 方法,并且我们发现在考虑不确定性时,变量的物理意义非常重要,且存在难以避免的病态局部最小值问题。