该研究通过探究多种集成方法,包括超级学习器等,运用人工神经网络在图像识别任务中进行设计多个实验,并进一步研究了神经网络的过度自信现象及其对集成方法的影响,并在所有实验中发现超级学习器是表现最佳的集成方法。
Apr, 2017
使用了 Conf-Ensemble 技术来提高机器学习模型的性能,通过对 ImageNet 数据集的图像分类实验,发现 Conf-Ensemble 在复杂的多标签分类任务中并未能如预期一样实现优化结果,也说明了大数据难以被利用的非平凡性。
Mar, 2023
研究通过一种名为 Learning with Ensemble Consensus (LEC) 的新训练方法解决了深度神经网络在存在标签噪声时过拟合的问题,该方法通过对众多神经网络的一定扰动下的结果进行共识,剔除出噪声样本,其中一个提出的 LEC,即 LTEC 在 MNIST,CIFAR-10,和 CIFAR-100 数据集上表现出更高的分类准确率,且效率较高。
Oct, 2019
我们引入了弹性多重选择学习(rMCL),这是对在回归设置中进行条件分布估计的 MCL 方法的扩展,其中可能对每个训练输入进行多次抽样多个目标。
Nov, 2023
该论文提出一种基于深度网络集成模型的新型随机梯度下降方法,通过使用多种高可能性的假设,实现产生多个预测结果的任务,其能够显著增强预测能力和降低错误率,并产生可解释的任务模糊度表示。
Jun, 2016
通过形式分析和实证评估,本文展示了异构深度集成模型可以通过高集成多样性有效地利用模型学习的异质性以提高集成的鲁棒性。
Oct, 2023
本文提出了一种算法,通过优化加权基本模型,对深度模型群集的认证稳健性进行增强,实验结果证明了该算法可以形成比 naive 平均所有可用模型更为稳健的群集,并且通常具有更好的准确性。
该论文介绍了一种通过 margin-boosting 来学习最大 margin 的神经网络集成防御方法,并提出了一种 margin-maximizing cross-entropy (MCE) 损失函数,实验证明用 MCE 代替标准的 cross-entropy 损失函数在对抗训练上能显著提高性能。
Jun, 2022
本研究提出了一种基于标签质量而非模型预测的学习方法 ——Confident Learning(CL),通过对数据进行剪枝、使用概率阈值计数来估算噪声,并对样本进行排序,以提高其置信度。我们基于假设类条件噪声过程直接估算了噪声标签和无污染标签之间的联合分布,提出了一种广义 CL,它是可证明一致和实验表现优异的。我们在不同类型数据上运用 CL,包括 MNIST 数据集、Amazon 评论库、以及 ImageNet 数据集的一些子集,结果表明 CL 可以清除不同类型数据中的噪声,提高模型准确性。
提高机器学习模型的预测准确性和可靠性,本文提出了一种简化深度集成模型的方法,通过不同的误差计算方法来训练多个线性分类器,达到与成本高昂的深度集成模型相同的校准能力和良好的分类性能,适用于组织病理图像和内镜图像的分类应用。