循环中的语言模型:将提示融入弱监督
本文提出了一种基于提示的弱监督学习方法,用于在未标记的数据上获取嘈杂的标签,并在许多口语理解任务上取得了可靠的表现,优于传统的规则方法和其他竞争性的低资源基准。
Jun, 2022
本研究提出一种无监督的精调框架,用于快速和直接地向未标记的目标数据进行深度学习模型的预训练,并在图像分类、情感分析和自然语言推理任务中实现了持续的改进。
Apr, 2023
本文提出了 PromptClass 方法,它使用预训练语言模型通过零样本提示获取基于上下文文本理解的伪标签,同时使用两种基于 PLM 微调的策略迭代地训练分类器和更新伪标签,实验结果表明,PromptClass 在四个基准数据集上实现了优异的表现,并在情感分类任务上实现了与全监督分类器相似的性能。
May, 2023
本文提出了一种利用填空式提示来生成标签信号以进行弱监督文本分类的方法,并使用潜变量模型来学习将生成的单词与预定义类别相关联的单词分布学习器和文档分类器,以实现无需标注数据。通过在三个数据集上的评估,表明我们的方法可以比基线方法提高 2%,4%和 3%。
May, 2022
使用弱监督和微调大型语言模型(LLM)的方法,在几乎没有领域知识的情况下,能够在性能上显著优于传统的有限的标准数据的监督方法,利用基于提示的方法,LLM 生成弱标记数据来训练下游的 BERT 模型,然后将弱监督模型进一步在少量的标准数据上进行微调,通过评估发现该方法优于 out-of-the-box PubMedBERT 4.7% 至 47.9% 的 F1 得分。
Jun, 2024
本研究探讨了一种新颖的 “预训练标注 - 弱监督学习” 范式,通过在图像分类任务中基于 CLIP 使用多个提示模板对图像样本进行标注,进而获得多个候选标签以形成含噪部分标签的数据集,并设计了一种协作一致性正则化算法来解决这个问题。实验表明,该方法在无需额外标签信息的情况下显著优于零样本推理,优于其他弱监督学习和少样本微调方法,并获得了更小的模型。
May, 2024
通过弱监督的提示学习方法 MedPrompt,自动生成医学提示并利用预训练的视觉 - 语言模型,在低资源情况下提升医学图像识别的性能和准确率。
Feb, 2024
该论文研究了少样本提示模型是否也利用了表象线索,发现在 MNLI、SNLI、HANS 和 COPA 数据集上,尽管模型在表象线索实例上表现良好,但在没有表象线索的实例上的性能往往低于或仅略优于随机准确度。
May, 2022
本文研究如何使用 Prompt-based Fine-tuning 技术提高语言模型和多模式因果变换器模型的效果,结果表明使用只有 35%-40% 的训练数据集便能取得可比较的效果,从而达到显著的时间和费用节约。
Apr, 2022
利用大型预训练语言模型作为弱监督框架中标记函数的基础,通过扩展语言模型在循环中的应用来解决弱监督的主要挑战之一:学习监督来源之间的统计依赖结构。我们提出了一种结构细化模块的简单而有效的方法,通过利用嵌入空间中的内在结构,通过询问语言模型来评估标记函数之间的相似度。与从弱标签中学习依赖关系的先前方法相比,我们的方法找到了与标记函数本身相关的依赖关系,而不太依赖于数据。我们证明了该结构细化模块可以在基准任务上将 PromptedWS 管道的性能提升高达 12.7 个百分点,并通过全面的消融实验和分析探索了效率和性能之间的权衡。
Feb, 2024