部分还是完整,这是个问题
本研究提出一种处理结构化输出的大规模公式,该公式基于部分注释数据进行学习,并通过 concave-convex procedure (CCCP) 进行高效求解以达到解决实际应用的目的。我们将该方法应用于可变数量可分对象的具有挑战性的跟踪问题中,并在仅使用完全注释的 25%的情况下实现与完全注释模型相媲美的性能。最后,我们通过实证比较来统一之前使用的 hinge、ramp 或 max loss 用于结构化学习的透视图。
Jun, 2012
本文提出了一种基于主动学习的实用方法,利用部分注释来减少结构标签空间的注释成本,并采用自我训练来将当前模型的自动预测作为未注释子结构的伪标签,通过使用错误估计器自适应地确定部分选择比率来解决选择子结构进行注释的挑战,本文在四个结构预测任务中展示了我们部分注释和自我训练组合的效果。该方法通过公平的比较方案,考虑读取时间,降低了注释成本。
May, 2023
本文提出了一种基于结构化预测和概念的下确界损失的统一框架,以处理一系列学习问题和损失函数中的部分标注,其中监督以包含实际标签的标签集的形式呈现,并且明确的算法可以轻松实现,并且证明了统计一致性和学习速率。实验证实所提出的方法优于常用的基准方法。
Mar, 2020
通过众包标注系统和基于伪标签和对比学习的新方法,解决了由于用户知识、文化背景差异和获得监督信息的高成本而导致的标注信息不充分和含糊不清的问题,实现了半监督部分标签学习的最先进表现。
Oct, 2022
本研究提出了一种标签高效的方法,针对部分注释的数据(即每个图像不都有所有任务标签),在多个密集预测任务上联合学习,通过保留输入图像的高级信息,并成功利用任务关系对多任务学习进行监督学习的多任务训练程序。我们严格证明了我们的方法可以有效地利用具有未标记任务的图像,并且在三个标准基准测试中优于现有的半监督学习方法和相关方法。
Nov, 2021
本文提出了一种基于在上下文学习的策略,通过选择少量有代表性的例子来进行标注,进而为新的自然语言任务创建数据集,并证明了此方法在不同场景下都具有良好的效果。
Sep, 2022
通过结构约束和组合推理,我们构建了一种基于提示的方法用于零和少样本的语言结构预测,在两个结构预测任务和五个数据集上的结果表明,强制一致性不仅构建了结构上有效的输出,而且还改善了性能。
Jan, 2024
通过新的基于模型的方法,我们提出了一种在多任务场景中为每个文本选择逐个注释的任务的方式,从而最大程度地减少注释数量,并且几乎不损失知识,同时还强调了根据注释任务的主观性收集多样化数据以有效训练模型的需求,并通过在单任务和多任务场景中评估模型来衡量主观任务之间的关系,此外,对于某些数据集,仅依靠我们模型预测的标签进行训练,可作为自监督学习规范化技术,提高任务选择的效率。
Dec, 2023