多模态立场检测:新数据集和模型
该文综述了社交媒体上基于观点挖掘的新兴姿态检测技术,比较了不同领域的方法,包括自然语言处理、Web 科学和社交计算,并在现有基准数据集上介绍了这些姿态检测技术的最新结果,讨论了最有效的方法和技术,还探讨了社交媒体上姿态检测的新趋势和应用,最后总结了目前该领域存在的缺陷和未来发展方向。
Jun, 2020
通过对推文中的立场预测的图像的必要性进行了评估,并使用了现有的大型语言模型进行了对比,研究表明,精调的基于文本的语言模型的集合优于多模态模型和使用最新的大型语言模型进行的基于文本的少量训练数据的预测。此外,多模态模型在将图像内容摘要为自然语言时表现更好,使用上下文示例可以改善大规模语言模型的少量训练数据的性能。
Oct, 2023
本文提出了一种使用文本和网络特征进行多模态嵌入的新模型 CT-TN 来解决社交媒体中的跨目标立场检测问题,在跨目标场景下的实验结果表明,相比于现有的基线模型,CT-TN 的平均性能提高了 11% 至 21%,表明了其有效性。实验中还发现 CT-TN 在看到 300 个目标实例后能够胜过其他模型,并且网络交互分析进一步表明了利用社交特征进行跨目标立场检测具有潜力。
Jan, 2023
本文介绍了一个新的多轮对话立场检测数据集(称为 MT-CSD),提出了一种全局 - 局部注意网络(GLAN)来解决对话数据中存在的长距离和短距离依赖性,还讨论了跨领域立场检测的挑战和对进展的贡献。
Mar, 2024
本文提出一种新的目标特定立场检测任务 —— 会话立场检测,旨在推断给定数据实例及其相应的会话主题的立场。为此,通过六个主要的香港社交媒体平台,使用注释技术构建基准会话立场检测(CSD)数据集,提出一种模型 Branch-BERT,将上下文信息融入到会话线程中以预测要检测的立场,实验证明该模型相较于其他基线模型能够取得更好的结果表现。
Nov, 2022
利用来自瑞士选举候选人的评论,构建了一个多语言立场检测数据集,包含 3 种语言的 67,000 条评论,预先加入自然问题代表目标,并用此训练出一种适用于所有政治问题的单一模型,使用多语言 BERT 的基线结果表明,该方法在零样本的情况下,进行跨语言和跨目标的转移效果相对成功。
Mar, 2020
本研究提出新的模型,在跨语言环境下实现了最全面的立场检测实验,通过基于情感的立场数据预训练,相较于几个强基准测试,以及低资源设置下取得了 6% 以上的 F1 绝对改善。
Sep, 2021
本文提出了基于预训练语言模型(PLMs)的提示微调方案,以实现针对不同目标的在有限数据情况下的态度检测,通过设计面向目标的提示和提出新的翻译,来有效实现本文提出的方法,实验结果表明我们的模型在全数据和少样本场景下均具有优越的性能。
Jun, 2022
本教程旨在介绍立场检测领域的最新研究进展,并为有兴趣的研究人员和实践者提供开放的研究方向。立场检测是一个新兴的研究课题,利用给定的内容确定对于特定目标或目标集的立场,在各个领域中有着重要的应用机会。本教程包含两个部分,其中第一部分概述了立场检测的基本概念、问题、方法和资源,而第二部分涵盖了立场检测的开放性研究方向和应用领域。本教程将是立场检测、社交媒体分析、信息检索和自然语言处理领域研究人员和实践者的有用指南。
Oct, 2022