深度神经网络的协作学习
本文提出了一种基于 EM 算法和众包技术的神经网络训练模型,能够直接从多个标注者的嘈杂标签数据中进行有监督学习,并能够捕捉不同标注者的可靠性和偏见,最终在多个领域获得了新的最优结果。
Sep, 2017
本文提出了一种新的深度学习范式 Co-Teaching,它通过同时运用两个神经网络,自我纠正,相互辅助学习,从而提高了模型在嘈杂标签下的稳健性。
Apr, 2018
本文提出了一种基于层的鉴别性学习方法来增强深度神经网络的鉴别能力,在多个层上引入多个分类器,使它们协同工作进行分类,通过对多个深度网络和基准数据集的实验,证明了该方法的有效性,并分析了该方法和经典条件随机场模型之间的关系。
Jul, 2016
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
在这篇论文中,我们提出了一种名为协作组学习的有效框架,通过随机地路由学习表示来减少学生同质化并提高模型泛化能力,并受到分组学习机制的启发,鼓励学生作为合作小组学习和交流不同的知识部分。
Sep, 2020
本研究使用深度协同学习(DCL)方法,将卷积层分解成两个小的卷积层,然后将它们在每个空间位置处融合,以减少计算复杂度和模型复杂度,同时提高在各种视觉识别任务中的准确性,减少模型参数 (在 AlexNet 中减少 16.82%)。
Mar, 2017
本文研究在有标记和无标记图像的情况下学习分类器的半监督图像识别问题。我们提出了 Deep Co-Training 方法,该方法基于 Co-Training 框架,并通过对抗样本促进视角差异性以防止多个深度神经网络之间的折叠。在 SVHN、CIFAR-10/100 和 ImageNet 数据集上进行测试,结果表明我们的方法大幅优于先前的最先进方法。
Mar, 2018
研究通过一种名为 Learning with Ensemble Consensus (LEC) 的新训练方法解决了深度神经网络在存在标签噪声时过拟合的问题,该方法通过对众多神经网络的一定扰动下的结果进行共识,剔除出噪声样本,其中一个提出的 LEC,即 LTEC 在 MNIST,CIFAR-10,和 CIFAR-100 数据集上表现出更高的分类准确率,且效率较高。
Oct, 2019
本文提出了基于蒸馏的方法,并采用信任加权方案,使用伪标签的无标签辅助数据促进合作学习,以达成对辅助数据的标签共识。我们证明了该方案相对于本地训练能显著提高模型性能,同时也可以识别和缓解对于众多模型的负面影响。在个体数据训练以及模型架构存在异质性的情况下,该方法表现得尤为有效。
May, 2023
该论文研究类别不平衡问题,提出基于比较两个分类器预测结果的重新加权蒸馏损失,以改善专家之间的知识转移不平衡问题,并结合对比代理任务支路实现特征质量的进一步提升,实验表明所构建模型达到了最优性能。
May, 2023