本文描述了对库尔德语数据的情感分析数据集的收集和注释,并探讨了几种经典的机器学习和神经网络技术以及数据增强的方法。我们证明了数据增强可以在难度较大的情况下实现高的 F1 分数和准确性。
Apr, 2023
金融情感分析中的预训练语言模型和迁移学习原则可有效解决特殊的金融领域情感分析困难,同时考虑到像 COVID 这样疫情的因素,对两组不同数据进行情感分析,并使用较小的训练集对模型进行微调。
Apr, 2024
本文综述了在自然语言处理(NLP)方面使用深度学习模型进行情感分析的最新研究,评估了使用词频 - 逆文档频率(TF-IDF)和词嵌入技术的不同模型和输入特征,并对实验结果进行了比较研究。
Jun, 2020
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本研究论文探讨了深度学习技术(尤其是 BERT 模型)在情感分析中的应用,介绍了情感分析的基本概念和深度学习方法的应用。通过详细的解释,阐明了 BERT 模型在情感分析中的应用效果和优化策略,并通过实验证实了这一点。实验结果表明 BERT 模型在情感分析任务中表现出强大的性能,经过微调后得到了显著的提升。最后,该论文总结了 BERT 模型在情感分析中的潜在应用和未来研究方向,以及实际实施的建议。
Mar, 2024
本研究使用双向编码器表示来自转换器(BERT)的基本预训练模型,并在输出层使用卷积神经网络(CNN)、全连接网络(FCN)和图卷积网络(GCN)等模块进行实验和分析。结果表明,在与 BERT 等预训练模型结合使用较小的医学文本数据集进行训练时,CNN 模型优于其他网络。该研究强调了在医学领域实现有效情感分析中模型选择的重要性,并为未来研究开发更高效的模型架构提供了参考。
本次调查主要介绍自然语言处理领域中最近迁移学习的发展和不同的迁移学习方法分类的分类学。
May, 2020
本文介绍了使用预训练和微调、提示或文本生成方法解决 NLP 任务的大型预训练基于 transformer 的语言模型,以及使用预训练语言模型生成数据进行训练或其他目的的方法,并讨论未来研究的限制和建议方向。
Nov, 2021
本文利用小型数据集对比了双向 LSTM 模型和预训练 BERT 模型的表现,结果表明对于小数据集,使用双向 LSTM 模型的性能显著优于使用 BERT 模型,且训练时间更短,因此在选择模型时需要考虑任务和数据等因素。
Sep, 2020
本研究探讨了采用不同类型的最先进的转换器模型对文本分类的性能,发现其中 RoBERTa 模型在测试数据集上表现最佳,可用于文本中灾难的检测。此外,我们发现预处理技术,词汇表中单词的性质,不平衡标签和模型参数对学习算法的性能产生影响。
Mar, 2023