半监督学习的时间集成
本文提出了一种结合半监督学习 (Semi-supervised learning, SSL) 和无监督分化表征学习的方法来增强自我聚合算法 (self-ensembling),并以多标签分类的方式在胸部 X 光图像上进行了验证。结果表明,该方法的性能得到了改善,并且其分化的表征也更加具有解释性。
Jul, 2019
通过半监督深度学习与主动学习相结合的方法,使用尽可能少的标记样本,同时利用熵最小化对未标记样本进行训练,在 MNIST 数据集上仅使用 300 个标记样本实现 2.06% 的误差率和 1000 个标记样本实现 1.06% 的误差率。该方法可以获得高准确性的敏捷标注过程,同时节省标记成本。
Mar, 2018
本研究探讨自我集成用于视觉领域适应问题,并以期提出的一系列修改过的方法在具挑战性的领域适应场景中取得了最先进的结果,包括赢得了 VISDA-2017 视觉领域自适应挑战赛。
Jun, 2017
通过使用多个独立的子网络组成的集成模型来提高模型性能和可靠性,并通过新的损失函数鼓励模型之间的多样性,在保持计算效率的同时,有效地改善模型的不确定性估计。在计算机视觉、自然语言处理和基因组数据等多个领域的广泛实验中,我们的方法在预测可靠性方面取得了显著改善。
Aug, 2023
本研究提出了一种名为 EnAET 的新型半监督学习框架,在现有半监督方法基础上结合自监督信息作为规则项进一步提高性能,实验证明可以大幅提高当前半监督和有监督学习算法的性能。
Nov, 2019
使用 self-ensemble 标签过滤方法对深度神经网络在噪声标签下的学习进行改进,通过逐渐过滤错误标签来提高任务性能,同时在无监督损失中利用这些数据进行半监督学习,并在不同的数据集和噪声比率下优于以前所有的噪声感知学习。
Oct, 2019
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
研究通过一种名为 Learning with Ensemble Consensus (LEC) 的新训练方法解决了深度神经网络在存在标签噪声时过拟合的问题,该方法通过对众多神经网络的一定扰动下的结果进行共识,剔除出噪声样本,其中一个提出的 LEC,即 LTEC 在 MNIST,CIFAR-10,和 CIFAR-100 数据集上表现出更高的分类准确率,且效率较高。
Oct, 2019
本文探讨了从预训练模型中创建集成模型的不同方法,并提出了一种有效的算法来识别下游数据集的预训练模型子集。在 19 项下游任务中(视觉任务适应基准),即使从超过 2000 个预训练模型中进行选择,其实现了具有较低推理预算的最先进性能,并且在 ImageNet 变体上对分布转移具有更好的鲁棒性。
Oct, 2020