同侧立场分类任务:通过微调 BERT 模型促进论点立场分类
针对多样观点的新闻推荐系统,识别两个新闻文章是否表达相同观点是至关重要的。本文探讨少样本立场检测的操作化选择的稳健性,特别关注不同主题下的立场建模。实验测试了预注册的关于立场检测的假设,比较了两种立场任务定义(正 / 反对与同一立场),两种 LLM 架构(双编码与交叉编码)以及添加自然语言推理知识,使用预训练的 RoBERTa 模型在来自 7 个不同立场检测数据集的 100 个样本中进行训练。我们的一些假设和之前的结果得到了证实,而其他结果则更不一致。同一立场定义的效果在不同数据集上有所不同,并受到其他建模选择的影响。我们没有发现训练样本中训练主题数量与性能之间的关系。总体上,交叉编码的性能优于双编码,并且将 NLI 训练添加到我们的模型中会显著改善,但这些结果在所有数据集上并不一致。我们的结果表明,在寻找稳健的 ' 立场 ' 建模选择时,需要包含多个数据集和系统建模实验。
Apr, 2024
本论文提出了一种新的方法,通过提取特定的语篇关系信息从原始文本中提取带有银标签的数据,以微调用于态度分类的模型并提出了一个 3 阶段的训练框架,实现了从最嘈杂的数据到最少噪音的数据不断降噪。实验结果表明,自动注释的数据集以及 3 阶段训练有助于改善模型在态度分类中的性能,该方法在 NLPCC 2021 共 26 支队伍竞争的观点分类赛道中排名第一,验证了我们方法的有效性。
Apr, 2022
研究使用预训练的双向变压器和情感信息,以改进对当代问题长时间讨论的立场检测,并创建一个新的含有情感信息的数据集,该数据集可用于浅层递归神经网络在低参数下达到了与经过微调的 BERT 相同的结果,同时使用简单的方法解释了哪些输入短语对于立场检测产生影响。
May, 2020
本文提出了一种利用 BERT 表征和新颖的一致性约束进行立场分类的神经网络模型,并在包括辩论网站在内的多个网站上的数据集上进行了实验,证明了我们的方法比现有基线方法更为有效。
Oct, 2019
通过引入一个涵盖辩论中各项任务的论证挖掘数据集,我们评估了多种生成基准模型,并发现虽然它们在个别任务上表现出有希望的结果,但在全部任务上的整体性能明显下降,这对于我们提出的数据集提出了挑战,需要进一步研究端到端的论证挖掘和概括。
Jun, 2024
该论文探讨了在阿拉伯语新闻断言验证和观点预测中使用文本蕴含的应用,并使用一个新的语料库。作者介绍了语料库的创建方法和注释过程,开发了用于两个提出的任务的两个机器学习基线:断言验证和立场预测。作者的最佳模型利用预训练(BERT),在立场预测任务上实现了 76.7 F1,在断言验证任务上实现了 64.3 F1。结果表明,尽管通过预训练学习到的语言特征和世界知识对于立场预测是有用的,但是这些学习表示对于没有上下文或证据的断言验证是不够的。
May, 2020
通过研究 Twitter 上的政治立场检测任务,开发了一个名为 ConStance 的模型,该模型可以同时估计金标注签和学习新实例的分类器,并且其学习的分类器在预测政治立场方面的表现比多种基线方法要好,同时该模型的可解释性参数能够阐明每个文本语境的影响。
Aug, 2017
本研究论文概述了 ImageArg 共享任务,这是第一个与 EMNLP 2023 第 10 届 Argument Mining 研讨会共同举办的多模态论证挖掘共享任务。共享任务包括两个分类子任务 -(1)子任务 A:论证立场分类;(2)子任务 B:图像说服力分类。前者确定包含图像和文本的推文对有争议的主题(例如枪支管制和堕胎)的立场。后者确定图像是否使推文文本更具说服力。共享任务共收到来自 6 个国家的 9 个不同团队的 31 个子任务 A 提交和 21 个子任务 B 提交。子任务 A 中最高分提交的 F1 得分为 0.8647,而子任务 B 中最佳提交的 F1 得分为 0.5561。
Oct, 2023
本文提出一种新的目标特定立场检测任务 —— 会话立场检测,旨在推断给定数据实例及其相应的会话主题的立场。为此,通过六个主要的香港社交媒体平台,使用注释技术构建基准会话立场检测(CSD)数据集,提出一种模型 Branch-BERT,将上下文信息融入到会话线程中以预测要检测的立场,实验证明该模型相较于其他基线模型能够取得更好的结果表现。
Nov, 2022
使用远程监督学习的 Word2Vec Skip-Gram 模型,以及递归神经网络,识别推文作者态度的高效系统。
Jun, 2016