阅读推文之间:解读相互连接的混合意识形态社群的立场
利用社区语言模型,研究政治言论语言化的分歧,通过观察群体在社交媒体中的表达,详细分析不同派别的观点,并且发现了相对于其他方法更高的对比度。
Sep, 2022
本文提出了一种新的基于社交媒体信息的意识形态检测方法,利用 Twitter 用户与政治人物的关注、提到和转发链接来确定用户的意识形态,使用概率模型解释了链接建立的原因,并自动学习了每种类型链接对决定一个用户意识形态的重要性,实验表明该模型在排名和政治取向分类精度方面具有优势,与直觉相符。
Dec, 2016
本论文通过机器学习方法,建立了一个自由派 - 保守派意识形态空间模型,对推特上的用户和媒体进行了分类,并提出了一种有效的解决信息过滤气泡问题的方法。
Nov, 2017
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的 LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了 NLP 工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示 LLMs 中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
本篇文章主要研究如何利用多任务多关系嵌入模型(TIMME)处理 Twitter 数据集中的意识形态探测分类问题,文章指出 TIMME 相比其他模型有更好的综合表现。
Jun, 2020
本篇研究利用 ChatGPT 等大语言模型对美国 116 届参议员进行纵向比较和分析,并筛选出与其政治思想立场相关的因素,在政治科学等领域进一步开拓了利用大语言模型技术进行测量与收集社会科学数据的新途径。
Mar, 2023
通过神经嵌入技术对 Reddit 14 年间 5.1B 评论的社区结构进行了研究,发现在 2016 年美国总统选举后,Reddit 出现了明显的政治极化,尤其是右翼用户的活动量增加导致的。个体级的极化是罕见的,政治极化可以通过考察单个用户的行为预测,可能因外部事件而发生。
Oct, 2020
利用大规模社交媒体的使用和其重大影响,本研究旨在通过训练较小的大语言模型来提高大型语言模型识别用户社区的能力,并在 Reddit 和 Twitter 数据上展示其改进了社区检测、机器人检测和新闻媒体描述的结果。
Jun, 2024
利用 LLM 的潜在知识,本文提出了一种分析个别国会代表意识形态立场的方法,通过使用经过微调的 BERT 分类器从代表的演讲中提取基于意见的句子,并将每个代表的平均 BERT 嵌入投影到一对参考种子上,这些参考种子是在特定话题上具有相对立观点的已知代表,或者使用 OpenAI 的 GPT-4 模型生成的句子。
May, 2024
现代民主面临公民参与度下降的关键问题。网络讨论论坛是增强公民参与的重要途径。该研究提议通过自然语言处理结合人工智能技术解决在线大规模讨论中的挑战,并研究这些技术能在在线讨论中揭示的个人观点。我们提出了一个由人工智能和大型语言模型组成的三层层级结构来表示观点,展示这些表示形式如何洞察观点的多样性以及允许我们研究在线讨论中的互动。
May, 2024