多模态立场检测:新数据集和模型
文章探讨基于目标的立场检测,使用条件LSTM编码建立tweet的表示并考虑了目标未提及且缺乏训练数据的情况,在SemEval数据集上超越了大部分方法且当加入弱监督时达到了最优效果。
Jun, 2016
使用长短期记忆(LSTM)深度神经网络和注意力机制,提出了 T-PAN 框架来解决主题态度检测问题,分为两个阶段处理,第一阶段判断主观性,第二阶段判断态度,实验结果显示该框架取得了更优秀的效果。
Jan, 2018
该文综述了社交媒体上基于观点挖掘的新兴姿态检测技术,比较了不同领域的方法,包括自然语言处理、Web科学和社交计算,并在现有基准数据集上介绍了这些姿态检测技术的最新结果,讨论了最有效的方法和技术,还探讨了社交媒体上姿态检测的新趋势和应用,最后总结了目前该领域存在的缺陷和未来发展方向。
Jun, 2020
本研究介绍了一种新的基于半监督学习的立场检测方法SANDS,通过构建深度特征视图和利用社交网络提供的远程监督信号,SANDS在美国和印度两个不同政治派别下的推文数据上获得了较高的F1得分0.55和0.49。
Jan, 2022
本文提出了两个自包含教程,介绍了使用BERT fine-tuning和使用大型语言模型(LLMs)进行推特数据中的立场检测的方法。第一个教程解释了BERT架构和标记化,引导用户进行训练、调优和评估使用HuggingFace transformers的标准和领域特定的BERT模型。第二个教程专注于构建提示和少样本示例,从ChatGPT和开源FLAN-T5中获取立场而无需进行fine-tuning。使用混淆矩阵和宏F1得分来实施和评估各种提示策略。这些教程提供了代码、可视化和洞察力,揭示了ChatGPT和FLAN-T5强于经过fine-tuning的BERT的优势。通过以易于理解和实用的方式涵盖模型fine-tuning和基于提示的技术,这些教程使学习者能够获得有关立场检测的前沿方法的应用经验。
Jul, 2023
本文介绍了一个新的多轮对话立场检测数据集(称为MT-CSD),提出了一种全局-局部注意网络(GLAN)来解决对话数据中存在的长距离和短距离依赖性,还讨论了跨领域立场检测的挑战和对进展的贡献。
Mar, 2024
本研究评估了立场检测方法的演变,从早期的机器学习方法过渡到划时代的BERT模型,最终到现代的大语言模型(LLMs),如ChatGPT、LLaMa-2和Mistral-7B。结果强调了LLMs在准确检测立场方面的卓越能力,LLaMa-2和Mistral-7B表现出极高的效率和潜力,值得进一步研究。
Apr, 2024
本研究解决了现有多模态立场检测研究忽视社交媒体多方对话上下文的问题。我们提出了一种新的多模态多轮对话立场检测数据集(MmMtCSD)及其相应的模型(MLLM-SD),该模型能够从文本和视觉模态中学习联合立场表示。实验结果表明,所提出的方法在多模态立场检测上达到了最先进的性能,预示着该研究对于现实应用的潜在影响。
Sep, 2024
本研究针对社交媒体上关于争议话题的立场检测问题,提出了一种系统化的分析方法,以洞察公众情绪。通过回顾现有的传统和先进方法,研究发现需要构建更强大和可推广的模型,并强调关注低资源语言和多模态立场检测等新兴挑战。
Sep, 2024