语言规范化 LSTMs 用于情感分类
本文介绍了一种新颖的深度学习框架,包括基于词汇表的方法用于句子级别情感标签预测。我们首先应用语义规则,然后使用深度卷积神经网络(DeepCNN)进行字符级嵌入,以增加词级嵌入的信息。然后,双向长短期记忆网络(Bi-LSTM)从词级嵌入中产生句子级特征表示。我们在三个 Twitter 情感分类数据集上评估了我们的方法。实验结果表明,我们的模型可以提高 Twitter 社交网络中句子级情感分析的分类准确性。
Jun, 2017
本文提出了一种多任务方法,通过将否定信息显式地纳入情感分析模型中,以优于隐式学习否定。该方法采用级联神经体系结构,并选择性共享 LSTM 层,同时在多个标准英语数据集上分析了该方法的性能,包括其多种不同设置下的输入数据类型和数量。
Jun, 2019
本文研究了使用神经模型对组分树进行情感分类。在研究中探索了两种深度情感表达的形式,分别是通过潜变量和高斯混合向量来捕捉情感子类型表达的形式。实验表明,使用我们的方法,结合 ELMo 嵌入,可以在 Stanford 情感树库 (SST) 上取得最佳结果。
Jun, 2019
在这项研究中,我们发现情感在大型语言模型中以线性方式表示,通过因果干预,我们证明情感表示在特定方向是有因果关系的。此外,我们揭示了情感表示涉及的注意力和神经元的机制,并发现了一种名为 “summarization motif” 的现象,其中情感不仅仅在情绪化的词汇上表示,也在中性位置(如标点符号和名称)进行总结。我们还展示了在 Stanford Sentiment Treebank 的零样本分类任务中,当去除情感方向时,几乎有 36% 的总分类准确度损失是由于在逗号位置去除总结性情感方向造成的。
Oct, 2023
本文探索了两种从文档级数据转移知识的方法,以提高方面级情感分类的性能。我们在 SemEval 2014、2015 和 2016 年的 4 个公共数据集上证明了我们方法的有效性,并显示注意力机制的 LSTM 从文档级知识中受益。
Jun, 2018
本研究提出了两种基于 LSTM 的目标相关情感分类模型,通过将目标词与上下文词的语义相关性进行建模,相比传统的 LSTM 模型,这种模型可以显著提高分类准确度,并取得了最新的最优性能。
Dec, 2015
本文提出了一种新的基于情感的预训练语言模型 SentiWSP,结合了单词级别和句子级别的预训练任务,通过基于生成对抗网络的替换情感单词检测和对比学习的方法,使得该模型在情感分析任务中达到了最新的最佳性能表现。
Oct, 2022
本文探讨了字节级循环语言模型的性质和学习特征,这些特征包括对应于高级概念的分离特征和单元,其中一个单元执行情感分析,这些在非监督学习方式下得到的表述在斯坦福情感树库的二进制子集上实现了最先进的性能,同时也具有很高的数据效率。
Apr, 2017
本文通过在六个不同的基准上比较多个模型,展示了 Bi-LSTMs 在不同数据集上都有出色表现,并说明 LSTMs 和 Bi-LSTMs 对于多分类细粒度情感任务非常适用。此外,文章还指出,在训练过程中将情感信息融入词嵌入向量可以显著提高与训练数据相似的数据集的效果,有效促进了不同模型结构在不同数据集上的性能的理解和研究。
Sep, 2017
为了提高 NLP 任务中的语言理解能力,在考虑了文本的语言学知识(例如词性标注和情感极性)的基础上,提出了一种新的语言表示模型 SentiLARE,并使用标签感知掩蔽语言模型进行预训练,实验结果表明 SentiLARE 在各种情感分析任务上取得了最新的最佳性能。
Nov, 2019