UPB @ ACTI:使用精细调整的句子转换器检测阴谋
本研究旨在分析和讨论基于 Telegram 平台的阴谋论言论,提出了两个具体任务:(i) 阴谋论内容分类 (ii) 特定阴谋论的分类,共有 15 个团队参加,研究表明使用大型语言模型是此类防止信息误导的最佳模式。
Jul, 2023
使用 BERT-like 模型和 prompt-based 方法(Llama2、GPT-3.5 和 GPT-4)来检测德语 Telegram 消息中的阴谋论,结果表明两种方法都是有效的,最佳模型是 GPT-4,具有自定义的阴谋论定义。
Apr, 2024
研究者通过设计和应用不同的机器学习模型,在探测虚假新闻方面取得了进展,但现有研究对于快速变化的主题和领域特定词汇的虚假新闻重视不够。本文提出了在特定与 COVID-19 相关主题中进行三项虚假新闻检测任务的方法和结果,并试验了一组基于文本的模型,包括支持向量机、随机森林、BERT 和 RoBERTa。发现预训练转换器可以产生最佳的验证结果,但经过智能设计的随机初始化转换器也可以训练达到接近预训练转换器的准确度。
May, 2022
该研究论文描述了 UPB 团队在 IberLEF-2023 的 AuTexTification 共享任务中提交的解决方案,主要使用基于 Transformer 的深度学习模型以及多任务学习等训练技术,最佳模型在英语和西班牙语数据集上分别达到了 66.63% 和 67.10% 的宏 F1 分数。
Aug, 2023
在线讨论中经常涉及阴谋论,本研究针对不同主题和在线社区中的阴谋论讨论建立了一个以作者对阴谋信念的观点为基础的分类体系,并通过人工标注的训练数据使用基于 BERT 的模型进行分类,结果显示 GPT 在逻辑推理方面存在显著缺陷,与我们的分类器相比表现相近,研究揭示了大型语言模型在需要细致上下文理解的任务中的潜在应用。
Mar, 2024
本文介绍了我们的方法,针对多模式信息传播中的虚假新闻进行了自动化的网络谣言 / 虚假信息检测,最终我们在 De-Factify@AAAI2022 FACTIFY 机器学习竞赛中获得了第四名,F1-score 为 74.807%。
Jan, 2022
本文提出了在 NLP4IF-2021 共享任务中使用 transformers 对社交媒体上的虚假信息进行检测的方法,并在三种语言的数据集中取得了第四的好成绩,分别为阿拉伯语 0.707,保加利亚语 0.578 和英语 0.864。
Apr, 2021
本文报告了一种基于 Transformer 模型(BERT、ALBERT 和 XLNET)的方法来分析 COVID-19 流行病期间社交媒体上共享信息的可靠性,以便快速检测假新闻,减少假信息的传播,该方法在 ConstraintAI 2021 共享任务 COVID19 Fake News Detection in English 中获得了 0.9855 的 f1 值,排名第 5。
Jan, 2021
本文描述了我们在 AAAI 2021 英语 COVID-19 假新闻检测共享任务中的系统,我们采用了不同的预训练语言模型,如 BERT,Roberta,Ernie 等等,包括预热,学习率调度和 K 倍交叉验证等各种训练策略,提出了一种集合方法,并在测试集上获得了 0.9859 的加权 F1 分数。我们还对未正确分类的样本进行了广泛的分析。
Jan, 2021
本文提出了在 SemEval 2023 任务 3 的子任务 3 中检测说服技巧的最佳解决方案,主要是通过细调预训练的基于 Transformer 的语言模型来处理多语言输入数据和多个预测标签,该方案使用大型的跨语言模型(XLM-RoBERTa 大型模型)在所有输入数据上联合训练,而且针对已知语言和未知语言分别设置合理的置信度阈值,最终在 9 种语言中的 6 种语言上(包括两个未知语言)表现最优秀并取得了高度竞争的结果。
Apr, 2023