利用大型语言模型解读新闻中的政治实体情感:零样本与少样本策略
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的 LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了 NLP 工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示 LLMs 中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
本文研究使用基于解码器的生成式 Transformer 来提取对俄罗斯新闻文章中的命名实体的情感分析能力,通过对 RuSentNE-2023 数据集进行实验,发现在无监督和有监督转换器中,零 - shot 方法的结果与以 BERT-base 为基线的有监督转换器相似,而经过 THoR 理论的 Fine-tuned Flan-T5 模型在推理能力上实现了至少 5% 的增长,并以 Fine-tuned Flan-T5-xl 取得了在 RuSentNE-2023 情感分析中超过先前基于 Transformer 的分类器的最佳结果。
Apr, 2024
金融情绪分析在揭示潜在模式和检测新兴趋势方面发挥着重要作用,最近,大型语言模型在不同领域展示了显著的能力,对于各种自然语言处理任务,甚至在零样本和少样本的情境学习中都表现出卓越的能力。然而,在金融情绪分析的背景下,它们的潜力和适用性尚未得到全面探索。为了弥补这一空白,我们采用了两种方法:上下文学习(重点关注 gpt-3.5-turbo 模型)和对金融领域数据集进行微调的 LLM。我们的结果表明,经过微调的较小 LLM 即便参数较少、训练数据集较小,也能够实现与最先进经过微调的 LLM 可比较的性能。此外,LLM 的零样本和一样本性能与经过微调的较小 LLM 和最先进的结果相当。此外,我们的分析表明,增加上下文学习的样本数量,并没有提高金融领域情绪分析的性能。
Dec, 2023
本研究通过 33,605 条孟加拉文新闻推文和 Facebook 评论创建了一个庞大的手动注释数据集,并对 Flan-T5、GPT-4 和 Bloomz 等多种语言模型进行了零指导和少量指导的上下文学习,与精细调优模型进行了比较分析。研究结果表明,在零指导和少量指导的场景下,单语言变换器模型始终优于其他模型。为了促进进一步的研究探索,我们打算向更广泛的研究社区公开提供这个数据集和我们的研究工具。
Aug, 2023
该研究提供了一个严谨和全面的基准以及一个标准化的回测框架,以客观评估各种类型的 LLM 在从中国新闻文本数据中提取情感因子方面的有效性,从而支持大规模语言模型在量化交易策略中的应用。
Jun, 2023
利用零样本学习采用递进性思维提示,与传统的问答格式相比,GPT 模型在文本分类问题上具备零样本分类器的能力,有效地利用提示策略在各种文本分类场景中展现出较好的性能。
Dec, 2023
通过替换、插入和删除等三种扰动方法以及基于上下文的掩码语言模型,在保持核心语义的同时,最大程度地提高目标新闻方面的所需情感分数,并通过波束搜索算法降低情感极性,实现对情感操纵的类别纠正,从而提供更客观的新闻报道并抑制媒体情感语言偏见。
Feb, 2024
在金融情感分析领域,传统的 NLP 模型受到参数大小和训练数据范围的限制,以及简洁的财经新闻文本缺乏上下文的问题,而无法很好地泛化和提高准确性。为了解决这些挑战,本研究引入了一种基于检索增强的大型语言模型(LLMs)框架,该框架包括一个指导调整的 LLMs 模块和一个从可靠外部来源检索附加上下文的模块。与传统模型和 ChatGPT、LLaMA 等 LLMs 相比,我们的方法在准确性和 F1 得分方面取得了 15%到 48%的性能提升。
Oct, 2023
本文讨论了大型语言模型在情感分析任务中的有效性,对 13 项不同的任务进行了评估,在简单任务中表现良好,但在涉及更深层次理解和结构化情感信息方面仍有待提高;然而,在资源有限的情况下,大型语言模型表现出色,提供了潜在可能性。该研究提出了一个新的基准评估框架 SentiEval。
May, 2023
本篇研究利用 ChatGPT 等大语言模型对美国 116 届参议员进行纵向比较和分析,并筛选出与其政治思想立场相关的因素,在政治科学等领域进一步开拓了利用大语言模型技术进行测量与收集社会科学数据的新途径。
Mar, 2023