使用多语言预训练变压器量化文本情感的价值和唤起程度
这篇论文介绍了一种从文本中分类情绪的方法,它针对各种情绪的多样性进行了差异化的识别,通过训练基于 Transformer 的模型建立了基准分类模型,并通过序数分类模型在情绪空间中考虑了情绪的价值和激活水平,结果表明该方法不仅能够准确预测情绪,而且在错分情况下显著降低了错误的程度。
Apr, 2024
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本研究探讨了基于 Transformer 模型在文本数据情感分类上的应用。我们训练和评估了几种预训练 Transformer 模型,并对 Transformer 层的微调、可训练性以及文本数据预处理等因素进行了分析。我们的分析发现,常用的技术,如去除标点符号和停用词,可能会影响模型的性能。这可能是因为 Transformer 模型的优势在于理解文本中的上下文关系,而标点符号和停用词仍然可以传达情感或强调,去除它们可能会破坏这种上下文。
Mar, 2024
通过研究连续情感评价模型,我们收集、分析了儿童故事中的情感内容,提出了一种弱监督学习的方法来预测故事情感变化的连续值,通过 DeBERTa 模型改进,达到了较高的相关性和有效性。
Jun, 2024
本文研究了使用 self-attention layer(transformers)预先训练的神经网络在情感识别中的表现,并发现这些模型成功利用语言信息来提高其 valence predictions,在测试他们时应包括对语言分析。
Apr, 2022
对几种预训练模型,fine-tuned 在情感词汇维度上,作者探究了模型大小、预训练数据、泛化能力、鲁棒性、公平性和效率等方面。结果发现,transformer-based architectures 在 SER 领域表现优越,特别是在情感预测方面。
Mar, 2022
本文介绍一种使用 RoBERTa-Large 进行监督学习,通过最小化预测 VAD 得分分布与分类情感分布之间的 EMD 损失,同时分类情感类别和预测 VAD 得分的方法,其在情感分类和与地面真值 VAD 得分之间具有显著的正相关性,并利用情感数据进行训练和预测。
Nov, 2019
本文采用基于转换器模型和双向 LSTM 网络的方法,结合心理语言学特征进行基于文本的情感检测,在两个基准数据集中表现出可比性,在六个统一情感数据集的迁移学习实验中表现出强大的跨领域泛化功能。
Dec, 2022
本文研究使用深度神经网络模型准确预测电影观众观看电影时所体验到的人类情感,其中包括来自 RGB 视频帧的视觉提示,涵盖声音、语音和音乐的听觉组件,以及包含演员对话的语言元素。
Jun, 2023
本文探讨了基于 Transformer 的大规模语言模型中,情感表示的内部机制以及情感分析。研究利用模型对情感分布量化,提出了针对积极、消极、决定、钦佩、焦虑和烦躁等情感的预测器,并且提出了预测分布以生成表达极端情感的句子,这些研究对思考内部机制和心理障碍的影响具有启示性。
Jul, 2023