ViralBERT:一种基于 BERT 的用户关注度预测方法
在信息泛滥的时代,我们提出了一种新颖的方法来预测病毒谣言和易受攻击的用户,该方法利用了图神经网络模型、多任务训练策略和数据集构建,实现了在谣言检测、病毒性预测和用户脆弱性评分等任务上的卓越性能提升。
Jan, 2024
本研究应用贝叶斯方法通过观测 Twitter 上短消息的转发情况和本地网络结构的信息,预测了短消息的传播程度和转发总数,有效提前几分钟预测结果,对于理解社交网络中的广义思想、主题或趋势的传播有潜在的启示作用。
Apr, 2013
我们的团队 “techno” 参加了 CERIST'22 共享任务,利用自然语言处理工具和 BERT 预训练语言模型,对与 COVID-19 疫情有关的 4128 个推文进行了情感分析和 8661 个推文进行了虚假新闻检测任务,并获得了情感分析任务 0.93 的准确度和虚假新闻检测任务 0.90 的准确度。
Apr, 2023
通过使用深度学习的自然语言处理模型 BERT,该研究针对社交媒体上抗疫苗言论的高峰期间,对 1506 条推文进行了分类,并可视化了其随时间变化的趋势,从而为机构制定反击抗疫苗言论的策略提供了数据支持。
Jan, 2022
使用在大规模的 Twitter 语料库上预训练并在我们任务上进行微调的基于注意力机制的 BERT 架构,有效地进行对社交媒体对话中的个人攻击和逻辑偏离行为的预测,此模型相较于我们作为基准所使用的 LSTM 模型表现出明显的优势。此外,通过综合过采样技术,可在相对较小的新颖数据集上进行微调,并减轻过度拟合问题。通过引入基于 Transformer 的模型,使该研究为预测 Twitter 上对话事件的实用工具奠定基础,以鼓励更好地互动在最普遍的社交媒体平台之一。
Nov, 2023
该论文介绍了基于 transformer 的 COVID-Twitter-BERT 模型,通过对大量 Twitter 上有关 COVID-19 的消息进行预训练,该模型在五个不同的分类数据集上相较于 BERT-Large 基础模型提高了 10-30%,特别是在 COVID-19 内容(尤其是来自 Twitter 的社交媒体帖子)的分类中表现更突出,从而实现了优化。该模型可以用于文本分类、问答和聊天机器人等自然语言处理任务。
May, 2020
使用 BERT 模型对 SemEval2017 中 Twitter 上的英语情感分析任务 4A 进行解决,在训练数据量较小的分类任务中,BERT 是一个非常强大的大型语言模型。使用此模型进行实验时,我们使用了包含 12 个隐藏层的 BERT BASE 模型,该模型在准确性、精确率、召回率和 F1 分数上优于朴素贝叶斯基线模型,在二分类子任务中表现更好,我们还在实验过程中考虑了所有种类的伦理问题,因为 Twitter 数据包含个人和敏感信息。我们在此 GitHub 存储库中提供了实验中使用的数据集和代码。
Jan, 2024
利用 RecSys 挑战数据集和评估程序,研究了仅利用上下文是否能够预测推文互动概率,并发现用户的先前互动历史、标签和链接的热度等特征对预测最具信息量。然而,相较于只基于内容的模型和挑战胜利者开发的模型,这些基于上下文的模型在 RCE 得分方面表现出较低。因此,提出了改进实现的潜在改进方法。
Sep, 2023
通过从推特中提取的情感信息,使用 FinBERT 大型语言模型的研究表明通过关联分析筛选特征集并采用贝叶斯优化的递归特征消除实现了超过 70% 的 F1 分数,从而在回测交易中获得了更高的累积利润。
Mar, 2024
该篇论文描述了在 WNUT-2020 共享任务 2 中开发的针对 COVID-19 英文推文信息识别的系统。研究者团队利用 BERT 模型进行了文本分类任务,并且通过对 BERT 模型的微调以及将其嵌入特征与推文特定特征连接后再采用支持向量机(SVM)进行训练(即 BERT +),并与一组机器学习模型进行性能比较。结果表明 BERT + 模型在 F1-score 评估指标上得分最高为 0.8713。
Dec, 2020