本文通过确定立场检测任务的定义,提供了一个通用框架,并提供了三种不同的方法来执行立场检测:监督式分类、NLI 分类器的零样本分类和上下文学习。此外,本文论述了零样本和少样本语言分类器的应用和局限性与监督分类器的不同,并通过复制 Block Jr 等人 (2022) 的方法演示了零样本立场检测的应用。
May, 2023
本文研究如何利用直觉表示捕捉话题之间的隐式关系,提出了一种适用于零样本学习的立场检测模型,并提出了一个新的数据集用于测试。结果表明,这个模型在许多有挑战性的语言现象上表现得更好。
Oct, 2020
本文研究了无样本态度检测的开放域问题,并提出使用间接监督和弱监督相结合的方法解决该问题,实验证明该方法可以取得比有监督方法更好的效果。
Oct, 2022
通过利用事前训练语言模型作为世界知识源,利用推理过程生成中间推理步骤的链式思维上下文学习方法,Stance Reasoner 在社交媒体上的零样本立场检测方面优于现有技术,包括完全监督模型,并且能够更好地推广到不同的目标,并提供明确且可解释的解释其预测。
Mar, 2024
本研究提出新的模型,在跨语言环境下实现了最全面的立场检测实验,通过基于情感的立场数据预训练,相较于几个强基准测试,以及低资源设置下取得了 6% 以上的 F1 绝对改善。
Sep, 2021
本文提出了一种站立检测方法,该方法利用语法表达式模式来捕获可转移的知识,可以有效地适应未见目标,最终采用注意机制来预测先前未见目标并在四个基准数据集上表现出高于竞争基线的效果。
本文提出一种基于对抗学习的零样本立场检测模型,能够在不同话题上实现最先进的性能和零样本迁移,有助于识别和理解社交媒体上的偏见新闻或评论。
May, 2021
研究使用预训练的双向变压器和情感信息,以改进对当代问题长时间讨论的立场检测,并创建一个新的含有情感信息的数据集,该数据集可用于浅层递归神经网络在低参数下达到了与经过微调的 BERT 相同的结果,同时使用简单的方法解释了哪些输入短语对于立场检测产生影响。
May, 2020
使用双编码器模型将来自不同来源的上下文信息与预训练语言模型相结合,提高文本领域内作者立场识别的准确度。
Nov, 2022
本文提出了一种使用文本和网络特征进行多模态嵌入的新模型 CT-TN 来解决社交媒体中的跨目标立场检测问题,在跨目标场景下的实验结果表明,相比于现有的基线模型,CT-TN 的平均性能提高了 11% 至 21%,表明了其有效性。实验中还发现 CT-TN 在看到 300 个目标实例后能够胜过其他模型,并且网络交互分析进一步表明了利用社交特征进行跨目标立场检测具有潜力。
Jan, 2023