- 对大规模语言模型的对抗欺骗攻击效率
使用五种不同的大型语言模型(LLMs)进行情感分类任务时,针对三种不同类型的对抗攻击,该研究分析了攻击的有效性、效率和实用性,发现词级攻击更有效,而字符级攻击则更实用且所需的改动和查询数量较少,因此在开发对抗性防御策略以训练更具鲁棒性的 L - 为何 “问题” 预示着积极情感?情感分类中解释令人费解的特征的案例研究
通过解释感情分类中具有预测能力但令人费解的特征,我们提出了自动检测这些特征并生成解释帮助用户理解其预测能力的方法。众包研究结果表明我们的方法能够有效地检测和解释感情分类中具有预测能力但令人费解的特征。
- NLP 分类任务的信息论分析方法
该研究提供了一个信息理论框架,用于分析文本分类任务中输入对输出的影响,研究发现多选阅读理解任务中,上下文与问题对输出的影响随着数据集的挑战程度增加而减少;而情感分类任务中,输入文本的语义含义在决定情感时比其语言表达更为重要。
- 基于对比学习的软提示模型在少样本情感分析中的应用
我们提出了基于软对比学习的 Prompt (SCP) 模型对少样本情感分析进行研究,通过舆论模块引导模型进行从粗粒度到细粒度的情感预测,并考虑标签之间的相关性,与其他基准模型进行对比实验证明了 SCP 的巨大优势。
- 基于深度学习的情感分类:一个比较调查
深度学习方法在情感分析问题的解决中起到了关键作用,而这篇论文通过对超过 100 种基于深度学习的情感分类方法在 21 个公开数据集上的比较,将性能影响因素分为三类,并量化地解释了它们对研究中方法的影响。
- MM一种用于疗法情感分类的通用自然语言推理方法
通过自然语言推理(NLI)方法,采用基于句对分类的方式预测给定文本中与治疗相关的情感,并使用 Transformer 模型进行训练,最佳模型取得 75.22% 的 F1 分数,相较于其他团队的提交,平均分数提高了 11%(中位数提高了 4% - EMNLPFinEntity: 金融文本的实体级情感分类
我们介绍了一个名为 FinEntity 的实体级情感分类数据集,用于金融领域中指向特定金融实体的情感分析。我们在论文中记录了数据集构建过程,并在几个预训练模型(BERT、FinBERT 等)和 ChatGPT 上进行了实体级情感分类的基准测 - 金融科技组织的关键短语增强无监督摘要生成
基于社交媒体数据的无监督短语摘要生成方法表现出显著的优势,并可用于提取外部洞察以帮助金融科技组织更好地管理其产品、优惠和推广活动。
- 单模态中间训练用于多模态的迷因情感分类
借助图像和文本数据的非模态(仅图像和仅文本)的情感标记数据,提出了一种针对多模态网络迷因的分类器的监督中间训练的新方法,并证明了在模型性能不降低的情况下能够减少 40% 的已标记迷因训练集。
- 基于加权胶囊网络的阿拉伯语和波斯语多领域情感分析方法
本文提出了一种使用加权胶囊网络方法的新的波斯语 / 阿拉伯语多领域情感分析方法,该方法使用域归属度和 TF-IDF 等方式训练每个领域的分类器,并使用加权胶囊网络集成各个领域的分类结果,与现有方法相比取得了可接受的准确性。
- 掩盖语言模型和下游情感分类任务中对 93 个受污名化群体的偏见
本研究旨在通过检测自然语言处理中的倾向性,确定人工智能模型的偏见和风险,并揭示这些模型对社会中处于弱势地位、受到歧视的群体的影响。结果表明,预训练的 MLMs(Masked Language Models)和他们的下游情感分类器存在着对社会 - 基于软提示调节的大型语言模型偏置评估
本文探讨在情感分类任务上使用软提示调整识别大型语言模型(LLMs)如 OPT 和 Galactica 语言模型中的偏见,使用群体公平性(偏见)来检查模型偏见,并发现有趣的偏见模式,以便在实践中部署这些模型之前,识别这些偏见。
- 基于量子自然语言处理的情感分析 - lambeq 工具包
本文介绍了量子自然语言处理(QNLP)技术在情感分析中的应用,使用了 lambeq QNLP 工具包和 Cambridge Quantum(Quantinuum)的 $t|ket>$ 来实现,针对三种不同类型的模拟实现了完美的测试集准确性并 - 克服提示扰动敏感性的零样本方法
该研究旨在在零 - shot 设置中找到高质量的 prompt。我们的自动化方法使用位置、推理和释义技术生成多个与基本 prompt 类似的 prompt,然后使用新的度量标准对这些 prompt 进行排名。我们实验证明,排名靠前的 pro - 大语言模型时代的情感分析:现实检验
本文讨论了大型语言模型在情感分析任务中的有效性,对 13 项不同的任务进行了评估,在简单任务中表现良好,但在涉及更深层次理解和结构化情感信息方面仍有待提高;然而,在资源有限的情况下,大型语言模型表现出色,提供了潜在可能性。该研究提出了一个新 - 使用提示增强的噪声 - 鲁棒自训练进行弱监督文本分类
本文提出了 PromptClass 方法,它使用预训练语言模型通过零样本提示获取基于上下文文本理解的伪标签,同时使用两种基于 PLM 微调的策略迭代地训练分类器和更新伪标签,实验结果表明,PromptClass 在四个基准数据集上实现了优异 - NollySenti: 基于迁移学习和机器翻译的尼日利亚电影情感分类
本文通过跨域自适应的方式,以五种尼日利亚当地常用语言(英语,豪萨语,伊博语,奈及利亚皮钦语和约鲁巴语)为基础,创造了新的数据集 NollySenti,用来进行情感分类的任务,并通过机器学习和基于预训练模型的方式进行了广泛的实证评估。同时通过 - ACL用于解释模型预测的非对称特征交互
提出了一种基于深度神经网络的自然语言处理模型的非对称特征交互解释模型,利用有向交互图表示解释,实验结果表明该模型在情感分类数据集上识别有影响的特征方面表现优异。
- 心理学启发的因果提示
该研究提出了三种不同的因果提示,研究了情感分类数据的不同性质在模型响应中引发的协议的一致性或多样性,并建议未来的研究提高对 NLP 任务中不同因果结构的认识。
- 基于社交媒体分析的新产品开发 (NPD):基于 Word2Vec 和 BERT 词嵌入的比较
该研究介绍了新的方法来支持新产品开发 (NPD) 过程中的情感和意见分类。此研究评估了两种流行的词嵌入技术 Word2Vec 和 BERT,并使用经典机器学习和深度学习算法将它们作为输入来识别情感分析和意见检测的最佳表现方式,并发现 BER