女性遇害新闻报道中的责任感知预测
通过使用无监督,零样本和少量样本的方法来改写低责任感和高责任感的语句,以改变对施暴者的责任感知水平,该研究提出了一项新的任务,即自动改写基于性别的暴力描述,以促进替代视角的访问和提高透视写作的意识。
Jun, 2023
该研究使用长短期记忆(LSTM)技术对巴西警方报告中的女性亲杀案前的行为模式进行分析,并通过文本描述预测风险水平。第一目标是将报告内容分类为较低或较高的受害者被谋杀风险,实现了 66% 的准确率。第二个方法是根据事件序列预测受害者可能经历的下一步行动,为了理解和评估家庭暴力的风险,为当局提供有价值的洞察力以保护妇女并防止情况升级。
Jan, 2024
本文介绍了一种生成潜在变量模型,用于量化形容词(或动词)选用及其情感,并以头(或依赖)名词的自然性别为条件。研究发现男女名词描述之间存在显著差异,并且这些差异与常见的性别刻板印象相一致:用于描述女性的积极形容词更与其身体相关而不是用于描述男性的形容词。
Jun, 2019
通过使用不变量理性化 (InvRat) 方法,我们可以降低对某些语法模式的误判,从而避免使用带有偏见的训练数据集导致毒性过滤器产生偏见,进而加剧群体边缘化的现象。
Jun, 2021
大型语言模型 (LLMs) 在性别方面反映了社会规范和偏见。本文填补情绪分析中对于社会偏见的研究空白,首次对五种最先进的开源和闭源 LLM 进行了性别化情绪归因的全面研究,发现这些模型始终存在受到性别刻板印象影响的性别化情绪。
Mar, 2024
本文研究滥用语言检测模型的偏见问题,通过使用不同的滥用语言数据集和预训练词嵌入和模型架构,分析性别偏见并尝试了三种减轻 偏见的方法:去偏向词嵌入、性别交换数据扩充以及使用更大的语料库进行微调。这些方法有效的降低了性别偏见 90-98%,并且可以扩展到解决其他情况下的偏见问题。
Aug, 2018
该研究旨在探讨日韩语言模型中的性别偏见和礼貌级别的语法性别偏见,发现非正式礼貌语是女性语法性别的最佳指示符,粗鲁和正式语言是男性语法性别的最佳指示符。同时,礼貌级别是网络欺凌检测模型中的分配性别偏见攻击向量,并提出了一种攻击数据集来显示分配性别偏见可以被训练消减。
Jun, 2023