Feb, 2024

从弱监督学习的一般框架

TL;DR这篇论文介绍了一种从弱监督学习中学习的通用框架,其中核心是使用期望最大化 (EM) 方法灵活处理各种弱监督来源,包括实例部分标签,聚合统计,成对观测和无标签数据。我们还提出了一种先进的算法,使用非确定性有穷自动机 (NFA) 和前后向算法显著简化了 EM 的计算需求,有效地将时间复杂度从现有解决方案中通常需要的二次或阶乘降低到线性规模。这种学习任意弱监督问题的方法被转化为对 NFA 的建模。GLWS 不仅提高了机器学习模型的可扩展性,还在 11 个弱监督场景中展示了卓越的性能和多功能性。我们希望我们的工作为这个领域的进一步发展和实际应用铺平道路。