本研究论文探讨了深度学习技术(尤其是 BERT 模型)在情感分析中的应用,介绍了情感分析的基本概念和深度学习方法的应用。通过详细的解释,阐明了 BERT 模型在情感分析中的应用效果和优化策略,并通过实验证实了这一点。实验结果表明 BERT 模型在情感分析任务中表现出强大的性能,经过微调后得到了显著的提升。最后,该论文总结了 BERT 模型在情感分析中的潜在应用和未来研究方向,以及实际实施的建议。
Mar, 2024
本文介绍了使用 BERT fine-tuning 方法处理越南评论数据集中情感分析任务的实验结果,并且发现相比于使用 GloVe 和 FastText,使用 BERT 模型略胜一筹。同时,本文研究提出的 BERT fine-tuning 方法也比原模型表现更好。
Nov, 2020
使用 BERT 模型对 SemEval2017 中 Twitter 上的英语情感分析任务 4A 进行解决,在训练数据量较小的分类任务中,BERT 是一个非常强大的大型语言模型。使用此模型进行实验时,我们使用了包含 12 个隐藏层的 BERT BASE 模型,该模型在准确性、精确率、召回率和 F1 分数上优于朴素贝叶斯基线模型,在二分类子任务中表现更好,我们还在实验过程中考虑了所有种类的伦理问题,因为 Twitter 数据包含个人和敏感信息。我们在此 GitHub 存储库中提供了实验中使用的数据集和代码。
Jan, 2024
本文提出了一种名为 FinBERT 的基于 BERT 预训练语言模型,用于在金融领域处理自然语言处理任务,实验结果表明它在当前两个金融情感分析数据集上的表现优于现有的机器学习方法。
Aug, 2019
采用 BERT 表示法,利用混合增强的深度学习算法对印度尼西亚情感分析进行了研究,并展示 BERT 表示法可以提高所有混合架构的准确性。在 BERT 基础上的 LSTM-CNN 准确性略高于其他 BERT 基础混合架构。
Nov, 2022
通过预训练的 BERT 模型实现传递学习来增加情感分类的准确性,虽然结果完全正确,但仍需要进一步研究来验证模型的泛化能力。
Nov, 2023
本文进行了一项针对语言模型 BERT 的情感分析任务的实验性研究,重点分析了如何更好地处理 BERT 输出层的不同嵌入以及使用与多语言模型相比更适合巴西葡萄牙语的语言模型的聚合策略和技术,并发现 BERT 在大多数情况下与 TF-IDF 相比取得了更高的预测性能,但 TF-IDF 在预测性能和计算成本之间达到了良好的平衡。
Jan, 2022
该研究提出了一种基于递归神经网络的多任务学习方法,能够有效地处理与情感分析相关的多个分类任务,并在优化细粒度情感分类问题中实现了领先的结果。
Jul, 2017
研究 BERT 语言模型在文本分类任务上的微调方法,提供一般的解决方案,并在 8 个广泛研究的文本分类数据集上取得了最新的最好结果。
May, 2019
本研究提出了一种基于 CrudeBERT 模型的情感分析方法,通过在相关新闻标题的大型语料库中识别和分类影响原油市场供求的事件,从而提高了与原油期货市场相关的标题的情感分类,CrudeBERT 在原油领域中表现优于专有和开源解决方案。
May, 2023