零样本跨语言迁移学习实现谣言检测
本文提出了一种基于远程学习的零样本学习框架,用于检测不同语言环境下不同领域的谣言信息,这种模型通过上下文表征、结构特征以及虚拟响应增强方法提高了对谣言信息的早期检测能力,并在三个实际数据集上得到了比现有模型更好的表现。
Dec, 2022
本文提出了一种基于统一对比转移框架的谣言检测方法,通过语言对齐和领域自适应对比学习机制,训练多尺度图卷积网络,实现在不同语言资源匮乏的情况下检测谣言,实验证明这种方法比其他方法更具优越性。
Apr, 2023
本文研究如何使用现有数据集训练 Twitter 消息的不同语言的验证价值模型。通过使用多语言 BERT 模型,我们系统地比较了六种方法。结果表明,对于一些语言对,零 - shot 跨语言转移是可能的,并且可以与在目标语言上训练的单语模型一样好。
Nov, 2022
利用大型语言模型(LLMs)进行社交媒体谣言检测的研究,提出了一种 LLM - 驱动的谣言检测方法(LeRuD),通过设计提示教给 LLMs 在新闻和评论中进行推理,并将整个传播信息分割为传播链以减轻 LLMs 的负担,通过在 Twitter 和微博数据集上的实验,LeRuD 在谣言检测方面表现出色,超过了几种最先进的模型,并且通过应用 LLMs,LeRuD 无需训练数据,在少量或零样本情景中显示出更有前景的谣言检测能力。
Feb, 2024
利用会话式引导工程的大型语言模型来对抗数字虚假信息,通过扩展 RumourEval 任务的研究努力,从事推特数据集的真实性预测和立场分类,以 AI 社会公益为主要目标。
Apr, 2024
本文介绍了一种零射击跨语言主题模型,利用迁移学习来处理多个语言的数据集,以解决传统基于词袋的主题模型所面临的单语言或巨大而稀疏的词汇表等问题,并评估了在不同语言中同一篇文章的主题预测的准确性和连贯性,结果表明所转移的主题是连贯且稳定的,具有潜在的未来研究方向。
Apr, 2020
本文提出了一种基于对抗对比学习框架的谣言检测方法,该方法通过语言对齐和新的监督对比训练范式,将从充分资源的谣言数据中学到的特征适应于低资源的数据;此外,通过对抗增强机制,进一步提高低资源谣言表示的鲁棒性,实验结果表明本文提出的方法可以更好地检测出早期谣言。
Apr, 2022
利用 Whisper 作为多语言语音模型示例,我们探究了语音编码器产生的话语表征,虽然保留了一些语言敏感信息,但是来自不同语言的单词被映射到相似的语义空间,从 Speech-to-Speech 检索任务中的高召回率可以看出;借助这个共享的嵌入空间,我们证明了在语音翻译中的零 - shot 跨语言转移;当 Whisper 模型仅使用英语到中文翻译数据进行微调时,它在其他语言的输入话语上表现出性能的提升;此外,在低资源语言的实验中,通过利用跨语言表示,Whisper 可以对在预训练过程中未见的语言的话语进行语音翻译。
Jul, 2024
本研究通过建模探索基于 Transformer 的多语言语言模型在零样本跨语言转移上的性能预测,并将其视为多任务学习问题,从而建立准确的预测模型。我们的方法还同时进行了特征选择,识别出对多个任务的零样本表现具有影响的共同特征。
May, 2022
本文提出了一种基于情感分类的多任务框架,利用迁移学习技术标记四个假新闻检测和谣言检测数据集,并证明了情感与假新闻和谣言检测的合法性的相关性,进而提供了一种改进的特征提取方法。实验结果证明,该多任务模型在准确性、精确度、召回率和 F1 分数方面一致优于单任务方法,无论是在同领域还是异领域的数据集中。
Nov, 2022