使用认识立场检测探究政治修辞学
针对自动写作评估(AWE)系统需要评估超越词汇和语法的语言使用的需求,我们介绍了一种新的方法来识别学术英语写作中立场的修辞特征。通过使用 Martin 和 White(2005)的评估分析中的参与度话语分析框架,在 4,688 个句子(126,411 个标记)中手动注释了八个修辞立场类别(例如,宣称,归属)和其他话语要素。我们随后报告了一项实验,培训机器学习模型识别和类别化这些立场表达的跨度。表现最佳的模型(RoBERTa + LSTM)在立场表达的跨度识别方面实现了宏平均 F1 为 0.7208,略优于裁定之前的互码者可靠性估计(F1 = 0.6629)
Jun, 2023
本文引入了一项新的任务,即实体之间(E2E)的立场检测,旨在于能够在研究相互作用时识别实体及其立场;通过引入一种新的生成框架,强化模型,以及进一步引入图编码器来概括实体活动以及周围的外部知识,我们实验后得出在 E2E 立场检测方面,相对较强的效果。此外,我们还发现,E2E 立场检测对于理解媒体引用和立场文化以及推断实体意识形态非常有用。
Nov, 2022
本研究提出了一种基于知识感知的方法,利用分层注意力网络和知识编码技术,将新闻文章的上下文信息和实体外在知识融入到政治倾向预测的过程中,建立了两个独立的政治知识图谱进行对比,取得高精度和高效性。
Feb, 2023
本文使用自动态度检测技术分析了公开的美国最高法院文件,探讨了法院公开语言的政治性,并通过两个不同的意识形态指标比较了大法官的意识形态以及现有社会科学意识形态度量之间的差异。本文还在此基础上探讨了更具专业性的法律立场检测任务,并在法律文件上训练语言适配器,取得了较好的性能。
Nov, 2022
本研究介绍了全球变暖立场数据集(GWSD)并训练了 BERT 分类器,研究了不同立场如何代表自己和彼此意见的论证中意见陈述的构建,发现自我肯定和质疑对手的表述在全球变暖接受和怀疑媒体中使用相似的语言方式,但怀疑者更多持反对观点,而作者常常将表达自己观点的意见归于公开支持对立观点的源实体,进而塑造源实体的虚伪形象。
Oct, 2020
本研究调查了针对俄罗斯语言的立场分类。同时,引入了一个新的 RuStance 数据集,以及用于该语言的文本分类方法进行基准测试,此外,该论文还为该语言中的立场预测提供了一个基线。
Sep, 2018
本研究通过分析受访者在社交媒体上表达的态度与其公开问卷中的回应的区别,发现在进行态度检测时,存在时间不一致、不同建构和测量误差等问题,进一步为研究确定模型的局限性提供了一个框架,提供重要的见解。
Sep, 2021
该研究提出了一种利用 Twitter 时间轴内容分析的非监督态度检测框架 (Tweets2Stance) 来预测社交媒体用户态度的方法,并通过对六个政党在 20 个不同议题上的一致性进行分析,依据党派帐号的言论预测政治主张。结果表明,T2S 能以最小 MAE 为 1.13 的准确度成功检测用户的态度。
Apr, 2022
这项研究介绍了主题度量,从提取的主题转换而来的虚拟变量,作为情绪度量的替代和补充,用于态度分类;通过使用 Bestvater 和 Monroe(2023)确定的三个数据集,本研究展示了 BERTopic 在提取连贯主题方面的熟练程度以及主题度量在态度分类中的有效性。实验结果表明,与传统方法(如 Dirichlet Allocation(LDA)和 Non-negative Matrix Factorization(NMF))相比,BERTopic 将连贯性得分提高了 17.07%至 54.20%,这些方法在早期政治学研究中很常见。此外,我们的结果表明,主题度量在态度分类中优于情绪度量,提高了高达 18.95%的性能。我们的发现表明,主题度量对于文本和语料库中态度和情绪相关性较弱的富有上下文的文本特别有效。情绪和主题度量的组合在大多数情况下可以实现最佳性能,并且可以进一步解决仅依赖情绪以及主题度量低一致性得分的局限性。
Oct, 2023