本文综述了在自然语言处理(NLP)方面使用深度学习模型进行情感分析的最新研究,评估了使用词频-逆文档频率(TF-IDF)和词嵌入技术的不同模型和输入特征,并对实验结果进行了比较研究。
Jun, 2020
本文详细阐述了情感分析的最新趋势和技术,通过系统综述了词汇、图形、网络、深度学习和规则等方法并比较分析数据集和评价指标,展现了情感分析的广泛应用领域,并旨在提高情感分析的效率和准确性。
May, 2023
本文讨论了大型语言模型在情感分析任务中的有效性,对13项不同的任务进行了评估,在简单任务中表现良好,但在涉及更深层次理解和结构化情感信息方面仍有待提高;然而,在资源有限的情况下,大型语言模型表现出色,提供了潜在可能性。该研究提出了一个新的基准评估框架SentiEval。
研究范围包括对最先进的基于Transformer的语言模型在意见挖掘方面的行为的研究,并对它们进行高级比较以突出它们的关键特点。此外,我们的比较研究为生产工程师提供了可关注的方法,并为研究人员提供了未来研究主题的指南。
Aug, 2023
该论文介绍了一种用于情感分析的多LLM协商框架,其中包括一个推理注入生成器来提供决策及其理由,以及一个评估生成器可信度的解释推导鉴别器,通过迭代使生成器和鉴别器达成一致,从而解决了情感分析中的单一决策缺陷的问题。实验证明,该方法在各种情感分析基准上表现出更好的性能。
Nov, 2023
我们的研究通过综述和实证分析,揭示大型语言模型在检测恶意言论中的能力和限制,强调它们作为分类器的角色以及发现优秀的模型和他们的特点和训练方法,为理解大型语言模型在关键的恶意言论检测领域的能力做出贡献。
Mar, 2024
本文研究了跨多语言数据集及经过机器翻译的文本中,变压器模型在情感分析任务中的表现,并通过比较这些模型在不同语言环境中的效果,洞察其性能变化对情感分析跨多种语言的潜在影响,同时还探讨了其缺点及未来研究的潜在方向。
May, 2024
本论文旨在探索基于大型预训练语言模型(如GPT-3)的情感分析优化技术,以提高模型性能和效果,并进一步促进自然语言处理(NLP)的发展。通过介绍情感分析的重要性和传统方法的局限性,介绍了GPT-3和微调技术,并详细解释了它们在情感分析中的应用。实验结果表明,微调技术可以优化GPT-3模型,在情感分析任务中获得良好的性能。本研究对未来使用大规模语言模型进行情感分析提供了重要的参考。
本研究针对立陶宛在线评论的情感分析问题,填补了当前对这一语言的研究空白。我们首次应用了预训练的多语言大型语言模型(LLMs),特别关注于微调BERT和T5模型,取得了显著的识别准确率。该研究的结果表明,微调后的模型在情感不模糊的情况下表现优异,并超越了目前最先进的商业模型GPT-4。
Jul, 2024
本文研究了大型语言模型(LLMs)对文本情感的检测和反应能力,填补了对其情感处理能力的评估缺口。通过一系列实验,发现LLMs在情感识别中存在一定敏感性,但准确性和一致性有显著差异,提示需改进其训练流程,以更好捕捉细微的情感线索。
Sep, 2024