句子情感的可控转换
本文提出了一种基于特定上下文下自动提取适当情感信息的方法来实现情感修改且保留情感无关内容的无监督学习,实验结果表明,该方法在内容保留度方面显著改进且达到了最先进水平。
Aug, 2018
通过替换、插入和删除等三种扰动方法以及基于上下文的掩码语言模型,在保持核心语义的同时,最大程度地提高目标新闻方面的所需情感分数,并通过波束搜索算法降低情感极性,实现对情感操纵的类别纠正,从而提供更客观的新闻报道并抑制媒体情感语言偏见。
Feb, 2024
提出了一种循环强化学习方法,用于解决情感翻译任务中的缺乏平行数据问题,并在 Yelp 和 Amazon 两个数据集上成功实现了内容保留性能的显著提升,达到了 1.64 至 22.46 的 BLEU 分数和 0.56 至 14.06。
May, 2018
本篇论文研究了使用预训练语言模型在情感分析任务,尤其是针对少量数据的方面 - 基础情感分析,提出了一种生成式语言模型来处理抽取方面、抽取类别、预测极性等任务,并证明了这种方法在多任务、少样本学习上比以前的方法有更好的表现。
Apr, 2022
研究使用自编码器进行文本数据建模的监督学习方法,并利用 Bregman 散度加权得到自编码器的新损失函数,在 6 个情感分析数据集上显示其比竞争方法更有效,并同时展示了该模型能够利用无标签数据进行改进。
Dec, 2015
本研究使用双向编码器表示来自转换器(BERT)的基本预训练模型,并在输出层使用卷积神经网络(CNN)、全连接网络(FCN)和图卷积网络(GCN)等模块进行实验和分析。结果表明,在与 BERT 等预训练模型结合使用较小的医学文本数据集进行训练时,CNN 模型优于其他网络。该研究强调了在医学领域实现有效情感分析中模型选择的重要性,并为未来研究开发更高效的模型架构提供了参考。
Apr, 2024
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
Nov, 2016
比较研究了 Fine-Tuning 的 Bidirectional Encoder Representations from Transformers 和一种将两个嵌入进行串联以提高堆叠的 Bidirectional Long Short-Term Memory-Bidirectional Gated Recurrent Units 模型性能的方法,将这两种方法应用于摩洛哥购物地点的情感分析,并在两种方法的学习率和最佳优化器之间进行了比较。
Dec, 2023
金融情感分析中的预训练语言模型和迁移学习原则可有效解决特殊的金融领域情感分析困难,同时考虑到像 COVID 这样疫情的因素,对两组不同数据进行情感分析,并使用较小的训练集对模型进行微调。
Apr, 2024