基于对比学习的软提示模型在少样本情感分析中的应用
本文提出了一种自适应提示构建策略,利用 seq2seq-attention 结构获取输入序列的语义信息,并动态构建自适应提示,可以改善提示的质量,且通过预训练的提示有效地推广至其他领域。在 FewCLUE 数据集上的实验证明了该方法的有效性和超过先前最先进方法的表现。
May, 2022
本文提出了一种混合模式的近似零样本多模态情感分析方法,结合手工提示和可学习提示,利用注意力机制优化提示编码器,在句子水平和方面水平数据集上取得了显著的性能优势。
Jun, 2023
通过软标签监督,提出了一种软动量对比学习方法(SoftMCL),用于细粒度的情感感知预训练,在单词和句子级别上增强模型学习情感信息的能力,并通过克服硬件平台的限制,扩展了对比样本的数量。实验结果表明所提出的 SoftMCL 方法的有效性。
May, 2024
本文提出了一种新的基于提示的微调方法 (DLM-SCS) 用于少样本文本分类,通过利用区分性语言模型 ELECTRA,该模型是预先训练用于区分一个 token 是否是原始生成的。模型的基本思想是,用真实标签实例化的提示应具有比其他带有假标签的提示更高的语义一致性得分,由于提示通常包括几个部分,因此可以相应地分解其语义一致性,然后利用预训练的 ELECTRA 模型来计算每个部分的语义一致性,而不引入额外的参数。大量实验证明,我们的模型优于几种最先进的基于提示少样本方法。
Oct, 2022
该研究旨在在零 - shot 设置中找到高质量的 prompt。我们的自动化方法使用位置、推理和释义技术生成多个与基本 prompt 类似的 prompt,然后使用新的度量标准对这些 prompt 进行排名。我们实验证明,排名靠前的 prompt 是高质量的,显著优于基本 prompt 和使用 few-shot learning 生成的 prompt,适用于句子级情感分类任务。
May, 2023
探究如何使用对比样本来加强提示学习,在 prompt learning 中引入对比采样模块和对比评分模块,实现差分对比学习,提出 ConsPrompt 模型在五个不同的 few-shot 学习任务中的有效性和鲁棒性,显示基于相似性的采样策略比基于标签的更加有效,结果表明 ConsPrompt 可以成为一种更好的知识探针来促进 PLMs。
Nov, 2022
本研究提出多模态概率融合提示方法,结合语言模型提示和多模态提示提供不同的提示信号,以提高少样本情感分析中的准确性。实验结果表明该方法在三个数据集上均有效。
Nov, 2022
该研究提出了一种基于语义提示的适应性视觉特征提取方法,通过在空间和通道维度插入语义提示来提高视觉特征提取器的处理能力,从而在极少量的支持样本下,实现更好的类别特定特征捕捉和更广泛的图像表示。
Mar, 2023
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本文提出一种基于对比学习的框架,使用不同的增强 “视图” 将同一类别的输入聚类,远离来自不同类别的输入,将对比损失与标准的掩码语言建模(MLM)损失相结合,并应用于基于提示的少样本学习者,实验结果表明,我们的方法在 15 种不同的语言任务中表现优于现有的先进方法。
May, 2022