为什么它是仇恨言论?可解释的仇恨言论检测中基于掩码的理由预测
通过使用大型语言模型 (LLM) 的推理能力填补对仇恨言论解释中的知识缺口,我们提出了一种新的仇恨言论检测框架 HARE,该方法使用模型生成数据相较于已有人工注释的基线,能够持续优于其他方法,并 verbess ustheeoub 井 unseendatasets 数据集的泛化性能。
Nov, 2023
HateXplain 采用注释的句子片段、言论分类和针对性群体,使分类更像人类,更易于解释、更准确、更少偏见。我们将 BERT 调整为使用 rationales 和类别预测进行此任务,并比较了我们在准确性、可解释性和偏见方面的不同指标上的表现。我们的新颖之处在于三个方面,首先,我们使用不同重要性值的合并 rationale 类损失进行实验。其次,我们在 rationales 上广泛实验了 ground truth attention 值。第三,为了提高我们的模型中的无意偏见,我们使用了目标社区单词的屏蔽,并记录了偏见和可解释性指标的改善。总的来说,我们成功地实现了模型的可解释性、偏见消除,并在原始 BERT 实现上取得了几项增量改进。
Aug, 2022
为了解决社交媒体中的仇恨言论问题,本文提出使用最新的大型语言模型(LLMs)从文本中提取特征,以训练基于仇恨言论分类器,从而实现设计上的可信解释性。全面评估了多个社交媒体仇恨言论数据集,证明了 LLMs 提取的解释特征的优越性以及实现解释性后依然保持良好性能的惊人结果。
Mar, 2024
本研究提出了一种自动的误用检测器,该检测器依赖于解释方法来检测潜在的偏见,并基于此构建了端到端的去偏扭框架,适用于文本分类器而无需任何外部资源。
Sep, 2022
本文介绍了 HateXplain,这是一项针对多个问题方面的第一个基准仇恨言论数据集,使用基本、常用的 3 级分类、目标社区和理由对数据集中的每个帖子进行了注释。我们利用现有的最先进模型观察到,即使在分类方面表现非常好的模型在模型合理性和忠实度等可解释度指标上也得分不高。此外,我们还观察到,利用人类理由进行训练的模型在减少对目标社区的非预期偏见方面表现更好。
Dec, 2020
利用不同的提示变体、输入信息和在零样本设置中评估大型语言模型,研究探讨在检测讨厌或有害语言时使用解释、上下文和受害群体信息,并发现不仅将目标信息包含在流程中可以显著提高模型性能 (约 20-30%),而且将理由 / 解释加入流程会在不同数据集上相较基线进一步提升性能 (约 10-20%);此外,提供了大型语言模型无法对决策进行分类和解释的错误案例分类,这些薄弱点自动构成这些模型的越狱提示,需要研发产业规模的安全技术来增强模型对抗此类提示。
Oct, 2023
本研究综合并比较了各种仇恨言论检测模型的鲁棒性,并使用可解释性技术评估了这些模型对抗性攻击的鲁棒性,从而发现了一些潜在的漏洞和强项,并为创建更加鲁棒和可靠的检测系统打下了基础。
May, 2023
该论文提出了一种名为 DeepHateExplainer 的方法,利用神经集成(即单语言孟加拉 BERT-base、多语言 BERT-cased/uncased 和 XLM-RoBERTa)从计算资源匮乏的孟加拉语中分类政治、个人、地缘政治和宗教仇恨,通过敏感度分析和层内关联传播技术(LRP)鉴别出最重要和最不重要的术语,评估得分表明,该方法对底层的机器学习和神经网络模型均有较好的表现
Dec, 2020
本文介绍一种新的基于 “Markup-and-Mask” 技术的生成问答系统解释性解释的方法,并提出了一种使用预训练语言模型自动生成标注数据进行端到端学习的方式来训练缩小版的模型的方法,同时结合了自由文本与摘录型解释的特点,进一步提高了问答系统的可信度。
Oct, 2022