从维基百科注入知识以增强立场检测
我们提出了一种协作知识注入方法,用于低资源立场检测任务,通过知识对齐协作地利用来自不同知识源的目标背景知识,同时引入了参数高效的协作适配器和分阶段优化算法来解决低资源立场检测任务的挑战,实验结果表明相比现有的立场检测方法有显著的性能提升。
Mar, 2024
本文提出一种新的目标特定立场检测任务 —— 会话立场检测,旨在推断给定数据实例及其相应的会话主题的立场。为此,通过六个主要的香港社交媒体平台,使用注释技术构建基准会话立场检测(CSD)数据集,提出一种模型 Branch-BERT,将上下文信息融入到会话线程中以预测要检测的立场,实验证明该模型相较于其他基线模型能够取得更好的结果表现。
Nov, 2022
研究使用预训练的双向变压器和情感信息,以改进对当代问题长时间讨论的立场检测,并创建一个新的含有情感信息的数据集,该数据集可用于浅层递归神经网络在低参数下达到了与经过微调的 BERT 相同的结果,同时使用简单的方法解释了哪些输入短语对于立场检测产生影响。
May, 2020
本文引入了一项新的任务,即实体之间(E2E)的立场检测,旨在于能够在研究相互作用时识别实体及其立场;通过引入一种新的生成框架,强化模型,以及进一步引入图编码器来概括实体活动以及周围的外部知识,我们实验后得出在 E2E 立场检测方面,相对较强的效果。此外,我们还发现,E2E 立场检测对于理解媒体引用和立场文化以及推断实体意识形态非常有用。
Nov, 2022
本研究评估了立场检测方法的演变,从早期的机器学习方法过渡到划时代的 BERT 模型,最终到现代的大语言模型(LLMs),如 ChatGPT、LLaMa-2 和 Mistral-7B。结果强调了 LLMs 在准确检测立场方面的卓越能力,LLaMa-2 和 Mistral-7B 表现出极高的效率和潜力,值得进一步研究。
Apr, 2024
文章提出一种包含情感、常识知识,并使用图自编码器模块获得常识知识的态度检测模型,通过在零样本设置下比较,研究结果显示该模型在 VAST 基准数据集上的表现优于现有最先进的方法。
Aug, 2022
通过利用事前训练语言模型作为世界知识源,利用推理过程生成中间推理步骤的链式思维上下文学习方法,Stance Reasoner 在社交媒体上的零样本立场检测方面优于现有技术,包括完全监督模型,并且能够更好地推广到不同的目标,并提供明确且可解释的解释其预测。
Mar, 2024
本文研究了无样本态度检测的开放域问题,并提出使用间接监督和弱监督相结合的方法解决该问题,实验证明该方法可以取得比有监督方法更好的效果。
Oct, 2022
利用来自瑞士选举候选人的评论,构建了一个多语言立场检测数据集,包含 3 种语言的 67,000 条评论,预先加入自然问题代表目标,并用此训练出一种适用于所有政治问题的单一模型,使用多语言 BERT 的基线结果表明,该方法在零样本的情况下,进行跨语言和跨目标的转移效果相对成功。
Mar, 2020