您需要多少验证标签?探索标签效率模型排序的设计空间
本文研究多标记问题的通用经验风险最小化框架,提出了一种简单的框架,能高效地解决数据中存在缺失标记和标记量极大的问题。通过特定损失函数的结构,基于该框架设计了有效算法,进一步证明了该框架在存在缺失标记时的形式化过度风险边界。此外,对于低秩促进的迹 - 范数正则化,我们的风险界更紧,表现出更好的泛化性能。最后,在各种基准数据集上进行实验,证明了本方法的优越性以及其可扩展性。
Jul, 2013
LLM 预训练模型通过精心选择文档,可以在仅使用部分 FLOPs 的情况下实现与完整训练相当的模型质量;通过使用提示的 LLM 作为文档评分器,我们将质量标签提取并应用于大规模的互联网抓取数据集,以自动筛除部分文档,从而更好地匹配性能,并通过在上下文中学习来提高标签模型的性能。
Jun, 2024
本文介绍了一种新的计算有效性框架 LabelBench,用于联合评估多种标记效率学习技术,同时引入了结合半监督学习和主动学习的新颖方法来微调预训练视觉转换器。
Jun, 2023
使用半监督方法解决在有限标记数据场景下的提取式文本摘要任务,提出了一种基于 GPT-4 的基于提示的伪标签选择策略,通过使用 LLM 评估和生成伪标签,改进了不同数据集上的 ROUGE-1 指标 10-20%,减少了无标记样本数量。
Nov, 2023
在 TREC 网络搜索数据集和 MIRACL 跨语言数据集上,使用无需特定任务训练数据的 Listwise Reranker with a Large Language Model (LRL) 可以作为第一阶段和最终阶段的重新排序方法,在多层文本排序任务中取得了强大的效果。
May, 2023
本研究系统评估了基于 BERT 的神经排序模型在五个英语数据集中的迁移能力,发现使用伪标签训练可以产生与迁移学习相媲美或更好的模型,但需要改进少样本训练的稳定性和 / 或有效性。
Mar, 2021
使用 5 种最先进的大型语言模型(LLMs)作为 “标注者” 在多个任务上进行评估,并比较其与人类标注的优缺点。总体而言,尽管 LLMs 在某些任务上表现出色,但它们无法替代人类标注的需求。
Jul, 2023
在自然语言处理(NLP)领域,命名实体识别(NER)被认为是一项关键技术,广泛应用于各种应用。本研究引入了一种新颖的混合标注方法,将人力与大型语言模型(LLMs)的能力相结合,旨在提高 NER 模型的性能,并以经济的方式解决传统标注方法存在的噪音和类别不平衡问题。通过多个数据集的分析,该方法在受限预算条件下始终显示出比传统标注方法更优越的性能,揭示了利用 LLMs 提高数据集质量的潜力,引入了一种减轻类别不平衡问题的新技术,并证明了以经济方式实现高性能 NER 的可行性。
Mar, 2024
本文提出了一种统一的数据创建流程,只需一个格式示例,适用于包括传统上问题较多的任务在内的广泛范围,通过实验证明使用指令跟随型大型语言模型创建的数据比使用人工标注的数据在分布外评估上表现更好(高达 17.5%),同时在分布内任务上保持可比较的性能,这些结果对于在现实世界中部署的自然语言处理系统的稳健性具有重要意义。
Oct, 2023
通过自我改进策略研究了零样本实体识别任务中大规模语言模型的应用,并提出了利用无标注语料库刺激模型自学能力的自我改进框架,通过全面实验分析发现,该自我改进框架能够进一步推动零样本实体识别任务的发展,并取得了显著的性能提升。
Nov, 2023