本研究旨在探索情感分类中的新数据集和深度学习模型在数据特征不同时的表现,结果发现 RoBERTa 模型在所有情况下表现最佳,并测试了这些模型对实际社交媒体帖子的适用性。
Feb, 2023
本文采用基于转换器模型和双向 LSTM 网络的方法,结合心理语言学特征进行基于文本的情感检测,在两个基准数据集中表现出可比性,在六个统一情感数据集的迁移学习实验中表现出强大的跨领域泛化功能。
Dec, 2022
本研究旨在通过深度学习和转移学习来提高情感计算中文段落情感识别精度。我们使用改进后的循环神经网络模型,并提出 Sent2affect 模型进行迁移学习。实验结果表明,我们的模型在 6 个基准数据集上表现出色,相对于传统机器学习方法有了显著提升。这些发现对情感计算的应用具有重要的启示意义。
Mar, 2018
本研究探讨了基于 Transformer 模型在文本数据情感分类上的应用。我们训练和评估了几种预训练 Transformer 模型,并对 Transformer 层的微调、可训练性以及文本数据预处理等因素进行了分析。我们的分析发现,常用的技术,如去除标点符号和停用词,可能会影响模型的性能。这可能是因为 Transformer 模型的优势在于理解文本中的上下文关系,而标点符号和停用词仍然可以传达情感或强调,去除它们可能会破坏这种上下文。
Mar, 2024
本研究利用 GoEmotions 和 Vent 两个情感分类的大型数据集,通过多种特征空间和学习算法设计了一个基准测试,并在 BERT 基础上提出了两个简单却有效的模型,超过了先前的强基线。通过人体实验分析了作家表达情感和读者感知情感之间的差异,证明了作家表达的情感更难被识别。研究者可以通过我们提供的公共网络界面来研究我们的模型。
Sep, 2021
本篇论文提出利用基于 LSTM 的深度学习模型来检测文本对话中的情绪,讨论了利用语义和情感嵌入的半自动化技术来收集训练数据以及结合方案,该方法在真实场景下的表现优于传统机器学习基准线和其他现成的深度学习模型。
Jul, 2017
研究使用传统机器学习技术和深度神经网络模型在社交媒体文本数据中识别情绪,并构建一个双向长短记忆神经网络(BiLSTM)和双向门循环单元(BiGRU)的集成模型,其中 BiGRU 模型表现最佳,准确率达 87.53%。此结果将有助于开发一个可视化情绪波动的决策工具。
本文提出了一种基于 Transformer 的技术,通过机器学习和深度神经网络的方法,将孟加拉文本分类为六种基本情感,实验结果显示,使用 XLM-R 技术在测试数据上获得了最高的加权 F1 值(69.73%)。
Apr, 2021
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本研究旨在提高文本情感分类在 GoEmotions 数据集上的性能,解决在自然语言处理中检测微妙情感的挑战,并为未来研究提供有价值的见解和方向,包括合成该领域不同数据集上的方法和性能的综述论文的潜力。