毒性检测:上下文是否真的重要?
使用基于树的方法分析在线社交媒体上用户对有害内容的行为和上下文,研究发现毒性评论会增加在线对话中产生后续毒性评论的可能性,并观察到在用户行为和模式方面,共识亵渎与非共识亵渎存在重叠的相似性。
Apr, 2024
在线毒性讨论的普及和影响使内容管理至关重要。自动化系统在识别有毒评论和减少对人工管理的依赖方面起着至关重要的作用。然而,识别多样化社区的有毒评论仍然存在挑战,本研究对此进行了探讨。
Nov, 2023
研究表明,上下文对于识别网络仇恨言论和反对言论至关重要。作者利用 Reddit 评论创建了一个上下文感知数据集,使用人类判断和神经网络实验结果表明,考虑上下文可以使结果显著提升。
Jun, 2022
本研究旨在通过使用心理学和社会理论来定义网络上的毒性,提出了一种多维度的网络毒性检测方法,结合显式知识和统计学习算法,以解决网络毒性检测中的歧义和复杂度问题。
Apr, 2021
本研究提出了一种基于变换器模型的大型英文立场检测数据集上关于文本分类的一系列实验,评估了不同类型的上下文信息对准确性的贡献,结果表明结构信息在特定情况下对文本分类有很高的益处。
Feb, 2024
本文通过提供一个西班牙语口音的基于社交媒体中与 COVID-19 相关的新闻发布的用户回复的语料库,证明了对于检测 hate speech,加入上下文信息可以提高自动检测模型的性能。
Oct, 2022
本研究通过给出上下文,重新注释部分英文侮辱语言检测数据集,比较了基于上下文和不基于上下文两种数据集上三种分类算法的性能,发现基于上下文的分类更具挑战性,但也更类似于实际应用场景。
Mar, 2021
本文提出一种改进 transformer-based models 解释性的技术,通过假设一篇文章至少和其最有毒的部分一样有毒,并将其纳入训练过程来提高模型的可解释性,实验证明该方法优于逻辑回归分析,具备更高的质量和解释性。
Mar, 2021
该论文评估了多种最先进的模型,特别关注减少模型对一些少数群体的偏见,提出了一个多任务学习模型以及一系列深度学习模型,并使用特定的指标测试这些身份群体中意料之外的模型偏见。
Sep, 2019