COLINGApr, 2024

利用大型语言模型解读新闻中的政治实体情感:零样本与少样本策略

TL;DR利用大型语言模型(LLMs)预测政治新闻文章中特定实体的情感,并通过少样本学习(few-shot)策略和连续思维(COT)方法增强情感预测准确率。研究结果发现,LLMs 在捕捉实体特定情感方面优于经过调优的 BERT 模型,并且通过在上下文中少样本学习和自一致机制可提高情感预测的连贯性。然而,COT 提示方法的有效性存在一定的不一致性,因此合适的提示策略和模型架构至关重要。