针对亚裔仇恨言论的语音识别任务:以 BERT 为核心,数据为中心进行关键研究
通过使用预训练语言模型 BERT 进行迁移学习,本文提出了一种在推特上进行种族主义、性别主义、仇恨性或冒犯性内容检测的算法,并将对算法进行合理地裁剪降低出现倾向性的缺陷。
Aug, 2020
本研究提出了一种基于 BERT 和 Transfer Learning 的新型方案,以捕获社交媒体内容中的仇恨语境,并证明该方案能有效解决标注数据不足和存在偏差的问题,使得模型性能得到提升。
Oct, 2019
我们的团队 “techno” 参加了 CERIST'22 共享任务,利用自然语言处理工具和 BERT 预训练语言模型,对与 COVID-19 疫情有关的 4128 个推文进行了情感分析和 8661 个推文进行了虚假新闻检测任务,并获得了情感分析任务 0.93 的准确度和虚假新闻检测任务 0.90 的准确度。
Apr, 2023
我们的研究通过关注同性恋恶言,填补了在线仇恨言论检测研究中的一个重要空白。通过利用先进的情感分析模型,尤其是 BERT,和传统的机器学习方法,我们开发出了一个细致入微的方法来识别 X/Twitter 上的同性恋恶言内容。这项研究具有重要意义,因为同性恋恶言在检测模型中一直存在较低的代表性。我们的发现表明,虽然 BERT 优于传统方法,但验证技术的选择会影响模型的性能。这凸显了在检测微妙仇恨言论时上下文理解的重要性。通过发布我们所了解到的关于同性恋恶言检测的最大开源标记英文数据集,分析各种模型的性能和我们最强的基于 BERT 的模型,我们旨在提高在线安全性和包容性。未来的工作将扩展到更广泛的 LGBTQIA + 仇恨言论检测,解决多样性数据集来源的挑战。通过这一努力,我们为打击在线仇恨言论作出贡献,倡导更包容的数字景观。我们的研究不仅为改进先前研究结果提供了有关有效检测同性恋恶言内容的见解,而且为未来仇恨言论分析的进一步发展奠定了基础。
May, 2024
本研究通过构建印度尼西亚语 COVID-19 Tweets 语料库,并使用 IndoBERT 预训练语言模型建立分类器模型,对 tweets 中的信息进行关联度和虚假性评估,结果表明,我们的模型精度达到了 87.02%。
Jun, 2022
本文探讨利用 BERT 和 Deep CNN 模型通过社交媒体研究社会对 COVID-19 大流行的感知,证明了 BERT 模型在情感分析中的卓越性能。
Nov, 2022
本文聚焦于利用包括 BERT 在内的多个深度模型以及集成学习等技术,对社交媒体上的仇恨言论进行分类,使用三个公开 Twitter 数据集进行实验并考察多种方法的分类性能,最终以新数据集 DHO 进行多标签分类,取得了不错的成果,尤其在集成学习方面表现良好,如在 Davidson 数据集上采用 stacking 技术得到了 97% 的 F1 得分,而在 DHO 数据集上汇聚集成学习技术得到了 77% 的 F1 得分。
Sep, 2022
通过使用深度学习的自然语言处理模型 BERT,该研究针对社交媒体上抗疫苗言论的高峰期间,对 1506 条推文进行了分类,并可视化了其随时间变化的趋势,从而为机构制定反击抗疫苗言论的策略提供了数据支持。
Jan, 2022
该论文介绍了基于 transformer 的 COVID-Twitter-BERT 模型,通过对大量 Twitter 上有关 COVID-19 的消息进行预训练,该模型在五个不同的分类数据集上相较于 BERT-Large 基础模型提高了 10-30%,特别是在 COVID-19 内容(尤其是来自 Twitter 的社交媒体帖子)的分类中表现更突出,从而实现了优化。该模型可以用于文本分类、问答和聊天机器人等自然语言处理任务。
May, 2020