一个思想的内在情感
在这项研究中,我们发现情感在大型语言模型中以线性方式表示,通过因果干预,我们证明情感表示在特定方向是有因果关系的。此外,我们揭示了情感表示涉及的注意力和神经元的机制,并发现了一种名为 “summarization motif” 的现象,其中情感不仅仅在情绪化的词汇上表示,也在中性位置(如标点符号和名称)进行总结。我们还展示了在 Stanford Sentiment Treebank 的零样本分类任务中,当去除情感方向时,几乎有 36% 的总分类准确度损失是由于在逗号位置去除总结性情感方向造成的。
Oct, 2023
利用 LLMs(大型语言模型)估计与文本相关的情感状态摘要。通过对亚马逊产品评论的情感分析,将情感描述符映射到 PCA 类型的空间中,并探索通过尾部提示来引发改进当前文本状态的行动描述,然而实验结果表明这并不是一项直接可行的任务。
Oct, 2023
在金融情感分析领域,传统的 NLP 模型受到参数大小和训练数据范围的限制,以及简洁的财经新闻文本缺乏上下文的问题,而无法很好地泛化和提高准确性。为了解决这些挑战,本研究引入了一种基于检索增强的大型语言模型(LLMs)框架,该框架包括一个指导调整的 LLMs 模块和一个从可靠外部来源检索附加上下文的模块。与传统模型和 ChatGPT、LLaMA 等 LLMs 相比,我们的方法在准确性和 F1 得分方面取得了 15%到 48%的性能提升。
Oct, 2023
基于指令数据微调各种 LLMs 的 EmoLLMs 系列兼具情感分类和回归任务的综合情感分析模型,在各类任务中超越了现有的 LLMs、ChatGPT 和 GPT-4,具有与 ChatGPT 和 GPT-4 相当的情感分析自动化标注工具的广泛应用能力。
Jan, 2024
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
Nov, 2016
该研究提供了一个严谨和全面的基准以及一个标准化的回测框架,以客观评估各种类型的 LLM 在从中国新闻文本数据中提取情感因子方面的有效性,从而支持大规模语言模型在量化交易策略中的应用。
Jun, 2023
本文探讨了字节级循环语言模型的性质和学习特征,这些特征包括对应于高级概念的分离特征和单元,其中一个单元执行情感分析,这些在非监督学习方式下得到的表述在斯坦福情感树库的二进制子集上实现了最先进的性能,同时也具有很高的数据效率。
Apr, 2017
该论文介绍了一种用于情感分析的多 LLM 协商框架,其中包括一个推理注入生成器来提供决策及其理由,以及一个评估生成器可信度的解释推导鉴别器,通过迭代使生成器和鉴别器达成一致,从而解决了情感分析中的单一决策缺陷的问题。实验证明,该方法在各种情感分析基准上表现出更好的性能。
Nov, 2023
本文研究了使用 self-attention layer(transformers)预先训练的神经网络在情感识别中的表现,并发现这些模型成功利用语言信息来提高其 valence predictions,在测试他们时应包括对语言分析。
Apr, 2022
本文研究了使用神经模型对组分树进行情感分类。在研究中探索了两种深度情感表达的形式,分别是通过潜变量和高斯混合向量来捕捉情感子类型表达的形式。实验表明,使用我们的方法,结合 ELMo 嵌入,可以在 Stanford 情感树库 (SST) 上取得最佳结果。
Jun, 2019