基于交叉注意力的立场检测上下文信息整合
本研究提出新的模型,在跨语言环境下实现了最全面的立场检测实验,通过基于情感的立场数据预训练,相较于几个强基准测试,以及低资源设置下取得了 6% 以上的 F1 绝对改善。
Sep, 2021
本文介绍了一种利用维基百科知识的立场检测算法 WS-BERT,通过将知识注入到立场编码中增强了算法的表现,在跨目标、少样本等多个数据集上性能显著优于现有方法。
Apr, 2022
本文研究了跨语言立场检测,提出了一种新颖的对抗语言适应方法应用于记忆网络,确保源语言和目标语言之间的立场对齐,可以有效地处理目标语言中标注数据有限的挑战。实验结果表明,与当前最先进的方法相比,该方法的有效性得到了证明。
Oct, 2019
我们提出了一种协作知识注入方法,用于低资源立场检测任务,通过知识对齐协作地利用来自不同知识源的目标背景知识,同时引入了参数高效的协作适配器和分阶段优化算法来解决低资源立场检测任务的挑战,实验结果表明相比现有的立场检测方法有显著的性能提升。
Mar, 2024
本文提出一种新的目标特定立场检测任务 —— 会话立场检测,旨在推断给定数据实例及其相应的会话主题的立场。为此,通过六个主要的香港社交媒体平台,使用注释技术构建基准会话立场检测(CSD)数据集,提出一种模型 Branch-BERT,将上下文信息融入到会话线程中以预测要检测的立场,实验证明该模型相较于其他基线模型能够取得更好的结果表现。
Nov, 2022
该研究提出了一种利用社交信息生成关系嵌入的新方法,该方法可以应用于任何语言和目标,有助于在社交网络上进行立场检测。实验证明,将我们的关系嵌入与文本方法相结合可以显著提高性能。
Oct, 2022
通过研究 Twitter 上的政治立场检测任务,开发了一个名为 ConStance 的模型,该模型可以同时估计金标注签和学习新实例的分类器,并且其学习的分类器在预测政治立场方面的表现比多种基线方法要好,同时该模型的可解释性参数能够阐明每个文本语境的影响。
Aug, 2017
通过对比学习和反事实生成引入了一种新颖的领域自适应跨目标立场检测模型 STANC-C3,利用反事实数据增强培训过程中的目标领域数据集,并且需要更少来自新领域的信息,通过在多个数据集上的实验,表明 STANC-C3 相对于现有的最先进的方法显示了性能的提升。
Sep, 2023
本文从语言学角度分解了立场检测任务,并详细研究了该任务中的关键组件和推理路径。作者扩展了先前提出的立场三角形语言框架,并使用该框架扩展了单一的训练语料库以增加注释。 实验结果表明,战略丰富的数据可以显着提高跨领域和跨目标评估的性能。
May, 2023
本文引入了一项新的任务,即实体之间(E2E)的立场检测,旨在于能够在研究相互作用时识别实体及其立场;通过引入一种新的生成框架,强化模型,以及进一步引入图编码器来概括实体活动以及周围的外部知识,我们实验后得出在 E2E 立场检测方面,相对较强的效果。此外,我们还发现,E2E 立场检测对于理解媒体引用和立场文化以及推断实体意识形态非常有用。
Nov, 2022