- 多对称集合:通过对称性的对立提高多样性和泛化能力
本研究提出了一种名为 Multi-Symmetry Ensembles (MSE) 的框架,通过捕获对称轴上假设的多样性来构建多样化的集合,探索超越随机变化的模型权重和超参数假设空间并有效提高了分类性能、不确定性量化和迁移任务的泛化。
- CVPR随机集成的贝叶斯后验近似
本文介绍了一种基于 Monte Carlo dropout、DropConnect 和一种新的非参数 dropout 的随机神经网络集成方法,通过变分推断将随机集合形式化为分布族,并训练以近似贝叶斯后验,我们在玩具问题和 CIFAR 图像分 - ICLR高效不确定性评估的紧凑集成
通过使用 Packed-Ensembles 策略,增加结构性的轻型集合并使用分组卷积来提高训练和推理速度,以实现在标准神经网络的内存限制下的操作,从而保留 Deep Ensembles 的性质并在准确性,校准性,分布偏移的鲁棒性方面表现同样 - DEFT: 快速转移强化学习的多样化集成
本文提出了基于 Deep Ensembles 的新方法 DEFT 来解决强化学习在高度多模态环境下的转移问题,在训练过程中加入一项鼓励策略之间不同的损失函数,产生多样性,最后将组件策略综合为新的适用于不同环境的策略。实验表明,该方法可以显著 - 为何如此悲观?通过集成估计离线 RL 的不确定性以及为何独立性很重要
本研究中,我们提出了一种名为 MSG 的实用的离线强化学习算法,该算法针对每个 ensemble member 独立计算目标,利用预测值的下限来优化策略,并在流行的离线 RL 基准测试中表现出优异的性能。
- 从集成学习中学习时,多样性非常重要
通过对集成方法进行扰动,可以增加模型多样性并提升性能。
- ICCV多任务情绪识别中的迭代蒸馏提高不确定性估计
本研究通过采用贝叶斯观点,利用深度集成模型来捕捉多种情绪描述符,包括行动单位、离散表情标签和连续描述符,进而应用迭代自蒸馏技术,提出一种用于情绪识别的方法,并针对仅有单一情绪标签可用的情况下,实现情绪不确定性的建模和估计。实验结果表明,与 - ICLR动态稀疏的全方位福音:零训练或测试开销的深度集成
本文提出了一种称为 FreeTickets 的新型高效集成学习框架,利用稀疏神经网络训练,取代了传统的多个密集神经网络的训练方式,并在预测精度、不确定性估计、分布外强度、训练和推理效率等方面优于传统方法。
- 拒斥深度集成是贝叶斯的
通过向深度集成的更新规则引入一个内核化的排斥项,我们提出了一个简单的修饰方法来执行和维护成员之间的多样性,并将 MAP 推断转换为正确的贝叶斯推断,这一变化不仅提高了预测的质量,而且大大增强了其对 ODD 的性能。
- 使用引导权重的深度学习中的稀疏不确定性表示
本研究提出一种基于感知器的设计方案,该方案结合了贝叶斯神经网络和深度集成等现代方法,通过在每层的权重矩阵中加入少量的诱导权重来降低存储和计算成本,同时保持较好的预测精度和不确定性估计能力。
- 从贝叶斯角度看深度合奏
深度集成是一种用于深度学习中不确定性量化的最新技术,本研究通过指定相关假设,证明了其可视为近似贝叶斯方法,该发现有助于改进估计并增大认识不确定性,数值实验表明这种改进有助于提高鲁棒性,同时可以通过分析导出方便计算的结果。
- 贝叶斯神经网络的后验分布是什么样子的?
研究表明, 使用全批处理的哈密顿蒙特卡罗方法可以提高贝叶斯神经网络的性能,并证明模型中选择的先验分布对性能的影响较小,但相比于深度集成、SGLD 等计算代价较小的方法,HMC 呈现出更接近于精确后验分布的预测分布;同时,研究发现贝叶斯神经网 - ICML损失面体连接简单形式和快速集成
该研究发现在多层网络中存在形成低误差的多维流形的模连接简单复合体,可用于构建高效的简单复合体来进行快速集成,具有优于独立训练深层集成的准确性、校准性和对数据集转换稳健性的特点。
- ICLRDICE: 基于条件冗余对抗估计的深度集成多样性
使用新型训练准则 DICE,提高深度集成模型的多样性并同时保持准确性,可以在 CIFAR-10 和 CIFAR-100 数据集上获得最新的最高准确率结果,并影响了校准、不确定性估计和在线协同训练。
- Masksembles 用于不确定性估计
本文介绍了一种新的深度学习模型 ——Masksembles,它是 Deep Ensembles 和 MC-Dropout 的结合体,通过固定数量的二元掩码,控制模型之间的相关性,以较小的代价实现与 Ensembles 相当的性能。
- 神经切向核下的贝叶斯深度集成
我们通过神经切向核(NTK)探索深度集合和高斯过程(GPs)之间的联系,引入对标准深度集合训练的简单修改,其中包括对每个群集成员的可计算、随机且不可训练的函数的添加,以在无限宽度下启用后验解释,用于回归和分类任务中,证明了我们的贝叶斯深度集 - ICML评估不确定性估计方法在点云三维语义分割上的表现
本研究评估了三种不确定性量化方法,即深度集成,MC-Dropout 和 MC-DropConnect 在 DarkNet21Seg 3D 语义分割模型上的影响,并全面分析了各种参数对任务性能和不确定性估计质量的影响。研究发现,深度集成的表现 - 超参数集合用于稳健性和不确定度量化
通过设计对权重和超参数的模型集成来改进模型的性能,并提出了一种超参数深度集成和超批集成方法,能够在计算和存储成本方面比传统的集成方法更加高效,应用于 MLP、Lenet、ResNet 20 和 Wide ResNet 28-10 网络结构, - 通过距离感知的确定性深度学习方法进行简单和有原则的不确定性评估
SNGP 基于权重规范化和高斯过程,解决了深度神经网络中单模型在预测、校准和域外检测上的不确定性问题。
- ICML神经集成搜索用于不确定性估计和数据集偏移
本文提出两种构建神经网络集合的方法,使用不同的体系结构,以细化预测结果并利用架构变化作为集合的差异性的来源,并在多个分类任务和现代架构搜索空间方面表现优于深度集成。