本文介绍 LSTM 深度学习模型在情感分析中的应用,探讨其关键参数及模型稳定性问题。
Nov, 2022
该研究旨在解决情感分析在不同语言中的多种语言依赖性问题,通过使用递归神经网络训练英文评论以建立一个主要用于英语的情感分析模型,并在俄语、西班牙语、土耳其语和荷兰语等其他语言中重复使用此模型来评估情绪,结果表明该方法在多语言情感分析中表现出色。
Jun, 2018
采用 BERT 表示法,利用混合增强的深度学习算法对印度尼西亚情感分析进行了研究,并展示 BERT 表示法可以提高所有混合架构的准确性。在 BERT 基础上的 LSTM-CNN 准确性略高于其他 BERT 基础混合架构。
本文介绍了一种新型的神经网络,即 TRNN,它基于张量 Tucker 分解,可以直接使用张量时间序列数据作为输入,避免了使用向量化处理导致空间或纵向维度精确信息丢失的问题,具有更好的长期数据表示效果。
Aug, 2017
本研究使用多层神经网络 MLTA,并结合图神经网络技术进行社交媒体上的情感分析,并能够提取主要的情感,并适用于分析更广泛的 Twitter 数据集。
Jul, 2022
研究了句子级情感分析中使用的卷积神经网络和递归神经网络的局限性以及利用转移学习和词嵌入等技术来优化这些方法,并提出结合两种网络的新型网络结构,此结构相对于先前的方法表现更优,性能相当于 Stanford 情感树库的最先进的系统。
Jan, 2018
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
提出了 Cached Long Short-Term Memory 神经网络(CLSTM)来捕获长文本中的语义信息,引入了缓存机制以提高循环单元的记忆能力,在文档级情感分类方面表现优于现有模型。
Oct, 2016
本研究使用双向编码器表示来自转换器(BERT)的基本预训练模型,并在输出层使用卷积神经网络(CNN)、全连接网络(FCN)和图卷积网络(GCN)等模块进行实验和分析。结果表明,在与 BERT 等预训练模型结合使用较小的医学文本数据集进行训练时,CNN 模型优于其他网络。该研究强调了在医学领域实现有效情感分析中模型选择的重要性,并为未来研究开发更高效的模型架构提供了参考。
Apr, 2024
本文研究神经网络的上下文处理、不同类型的循环神经网络所产生的上下文效应,以及如何应用这些效应提高基线模型的性能。
Apr, 2020