带公平性约束的网络欺凌检测
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
Jan, 2018
本研究针对社交网络文本数据中含有的对抗性攻击内容,特别强调仇恨言论的网络欺凌进行检测,利用基于深度学习的方法和纠错算法,实现了显著结果。LSTM 模型在固定的 100 个时期内表现出色,准确率、精确率、召回率、F1 分数和 AUC-ROC 分数分别达到了 87.57%、88.73%、87.57%、88.15% 和 91%。此外,LSTM 模型的性能超过了先前的研究。
May, 2024
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
通过深度学习方法,特别是采用 BERT 和 BiLSTM 架构,我们的研究介绍了一种针对网络霸凌问题的深度学习方法,可以有效地分析大量帖子并预测潜在的网络霸凌行为。结果表明,我们的 hateBERT 模型在五个模型中表现卓越,达到了 89.16% 的准确率,为实现更安全和更包容的数字化环境作出了重要贡献。
Apr, 2024
社交媒体平台、网络欺凌、自动化系统、集成机器学习和挑衅性推文是本研究的关键词。研究通过采用四种特征提取技术,并结合五种机器学习算法,最终实现了 94.00% 的高准确率,优于传统机器学习模型,并超越了之前在相同数据集上的实验结果。
Feb, 2024
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本研究旨在探讨使用线性支持向量机通过模拟欺凌者、受害者和旁观者的帖子,实现自动检测社交媒体文本中的网络欺凌,并收集并德细注释英语和荷兰语的训练语料库。我们利用丰富的特征集进行一系列二元分类实验,研究哪些信息源对于这一特定任务最有贡献,同时对参数进行优化,分类器在英语和荷兰语分别获得了 64% 和 61% 的 F1 分数,显著优于基于关键字和词单元的基准系统。
Jan, 2018
该研究旨在使用多项式朴素贝叶斯和支持向量机等机器学习算法,开发具有 92%准确率的永久性解决方案,以检测和拦截网络暴力传入和传出信息,并开发了聊天机器人自动化消息系统。
Jul, 2022