重新审视情感分类中编码逻辑规则的重要性
该研究使用二进制新闻分类和产品评论情感分析两个任务,评估了两个最先进的深度上下文语言表示,ELMo 和 DistilBERT 的健壮性,旨在探索自然语言处理系统在通向适用于实际场景的系统的过程中的代表性能力的极限。结果显示,DistilBERT 在泛化到跨上下文设置时明显优于 ELMo。
Mar, 2023
本文研究了使用神经模型对组分树进行情感分类。在研究中探索了两种深度情感表达的形式,分别是通过潜变量和高斯混合向量来捕捉情感子类型表达的形式。实验表明,使用我们的方法,结合 ELMo 嵌入,可以在 Stanford 情感树库 (SST) 上取得最佳结果。
Jun, 2019
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
Nov, 2016
本研究研究了关于是否通过无监督的方式来学习丰富的上下文化令牌表示,从而消除了在神经网络模型中显式建模语言结构的需要,最后得出结论,即使使用 ELMo 表示,句法相关模型仍然优于无句法模型,尤其是对于领域外的数据。
Nov, 2018
研究使用 Paraphrase Database 监督学习通用的、同义句的句子嵌入,比较 6 种组成结构并在相似度数据集和三个 NLP 任务上进行评估,在领域内复杂的结构(如 LSTM)有更好的性能,但在领域外使用简单架构如词平均比 LSTM 表现更好,同时演示如何将预训练的句子嵌入与监督任务相结合。
Nov, 2015
本文探讨了字节级循环语言模型的性质和学习特征,这些特征包括对应于高级概念的分离特征和单元,其中一个单元执行情感分析,这些在非监督学习方式下得到的表述在斯坦福情感树库的二进制子集上实现了最先进的性能,同时也具有很高的数据效率。
Apr, 2017
通过建模评论中的句子之间的相互依赖关系,我们提出了一种基于分层双向 LSTM 的情感分析方法,在五个多语种、多领域的数据集上取得了竞争状态下最先进结果,并优于其它两种基线模型,而且不需要使用手工特征或外部资源。
Sep, 2016
本文中,我们描述了几种针对不同社区的刻板印象,这些社区存在于受欢迎的句子表示模型(包括预训练的下个句子预测和对比句子表示模型)中。通过比较基于文本相似性的强预训练模型与学习语言逻辑的文本蕴涵模型,我们得出结论:与显式去偏见流程相比,使用文本蕴涵显式逻辑学习可以显著减少偏见并提高社区的识别。
Mar, 2023
利用依存分析和基于规则的指标,我们能够通过利用显式的篇章关系来筛选高质量的句子关系任务,从而得出高质量的句子嵌入向量及用作 BERT 等更大型模型的监督微调数据集。
Oct, 2017