共同监督学习:通过分层专家混合改善从弱到强的泛化能力
本研究提出了一种简单的 Mixture of Experts 模型,在大规模、多标签的预测任务中表现良好,适用于数据集分布不均、单个 GPU 存储不下的情形,并支持并行训练和统一的特征嵌入空间。该模型的表现表明可以用来训练更大的深度学习模型,拥有更强的处理能力。
Apr, 2017
本文提出了一种基于半监督的“保真度加权学习”方法,通过利用高质量数据的后验概率调节参数的更新,使用弱标记数据对深度神经网络进行训练,同时提高任务相关数据表示的可靠性。在信息检索和自然语言处理领域中,我们的方法优于现有的半监督学习方法,表明该方法能更好地利用强弱标签数据,提高模型性能。
Nov, 2017
文章提出了一种基于多任务弱监督的矩阵补全方法, 通过建立弱监督任务之间的相关性解决弱监督准确性低的问题, 从而提高模型训练的效果。实验结果表明, 与传统的有监督方法相比, 该方法能平均提高 20.2% 的准确率。
Oct, 2018
本文介绍了一种新的机器学习辅助标注方法,即Active WeaSuL。该方法使用专家定义的规则来估算整个数据集的概率标签,并在弱监督模型容易出错的几个点上迭代提供真实标签以优化模型性能。实验证明,Active WeaSuL比其他方法更适用于获取标记数据困难的情况下。
Apr, 2021
该研究提出了一种通用的技术,以实现对任何标签类型的弱监督,同时仍提供实用灵活性、计算效率和理论保证,并应用于以往没有使用弱监督框架解决的重要问题,包括排序学习、回归和超似曲空间中的学习。
Dec, 2021
本文介绍一项新的弱监督学习方法——通过标签来监督预训练模型, 该方法使用现代残差网络和最大的图像数据集训练模型, 实现各种迁移学习的应用,甚至包括零样本学习,且与大规模自监督学习相比具有更好的性能。此方法有助于发展可靠的视觉识别系统。
Jan, 2022
通过探索协同训练的不同维度及其对抗同质化,我们的多样化协同训练在Pascal和Cityscapes数据集上大幅优于现有方法,通过仅使用92、183和366张标记图像,在Pascal数据集上取得了mIoU分别为76.2%、77.7%和80.2%的最佳结果,超过之前的最佳结果超过5%。
Aug, 2023
本文是对OpenAI最近关于弱到强泛化(W2SG)的超对齐工作的跟进研究,并提出使用集成学习和弱到强监督实现过强人工智能模型开发和超智能进化的方法。通过人类监督和自动对齐评估器来增强弱监督的能力,实现了弱到强监督的目标,并讨论了改进弱监督对于增强弱到强泛化的影响。
Feb, 2024
利用弱模型监督强模型以提升性能,采用新颖的自适应可调整损失函数进行弱强监督的综合实验,超越了基准性能和使用整个数据集进行微调的结果,展示了弱强泛化在提升视觉模型性能方面的重大潜力。
Feb, 2024
本研究针对机器学习中的弱教师与强学生模型,深入探讨了在不完美伪标签下的弱到强泛化问题。研究发现,在弱监督之后,强学生会经历成功泛化和随机猜测两个渐近阶段,并提出了适用于该理论的关键不等式,为后续的多类分类研究奠定了基础。
Oct, 2024