解开模型偏见中的社会不平等:离婚庭审中的性别不平等
通过使用大量的法庭离婚案例并观察允许分配抚养费的变量,本研究通过结合分类和随机森林回归模型,提供了一个可解释的人工智能模型,旨在作为现有决策工具的补充,以更好地理解法官所做的决策机制。
Jul, 2020
通过评估名为 “离婚预测数据集” 的数据集,使用六种不同的机器学习算法(Logistic Regression,Linear Discriminant Analysis,K-Nearest Neighbors,Classification and Regression Trees,Gaussian Naive Bayes 和 Support Vector Machines),进行离婚预测,并使用 LIME(Local Interpretable Model-Agnostic Explanations)对预测概率进行详细解释,最终开发了一款离婚预测应用程序,用于帮助人们判断他们的关系状况。
Oct, 2023
本文介绍了基于两轮标注事件抽取技术的离婚案件纠纷识别方法,并实现了相应的司法智能助理系统,该系统可有效地从离婚案件材料中提取重点事件,识别事件之间的指代关系,并检测原告与被告之间的冲突。实验结果表明,该方法和系统相比现有方法能更加高效地获取案件争点和检测冲突。
Mar, 2023
通过研究法律数据集和大型语言模型产生的案件判决摘要中存在的偏见,分析其对法律决策的影响,揭示大型语言模型和预训练的摘要模型生成结果中存在的有趣偏见,并探讨这些偏见背后的原因。
Dec, 2023
研究俄罗斯人口数据的分类器的公平性问题,提出了使用 “特征丢弃” 来解决过程公平性,同时使用 “LIME 解释” 来评估分类器的公平性和决定敏感特征的消除,结果表明所有的模型都变得不再依赖于敏感特征,并表现出更好或没有影响的准确性。
Feb, 2022
该研究探讨了大型语言模型中的性别偏见问题,特别关注 GPT-2 和 GPT-3.5 等多个语言模型之间的比较,通过对生成的文本进行全面的文献综述和定量分析,发现了性别化词汇关联、语言使用和偏见叙述的问题,并提出了减少性别偏见的算法和数据增强技术。该研究强调了学科间合作的重要性和社会学研究在减少 AI 模型性别偏见中的作用。
Jul, 2023
本文针对语言技术和人工智能领域的进展和应用进行研究,探讨印度视角下法律领域中所存在的公平性问题,特别关注 AI 模型中的算法偏差对于对印度教和穆斯林的关联特征的差异性的影响,并强调了在印度的法律领域中,公平性 / 偏差的研究仍有待进一步的耕耘。
Mar, 2023
本文首次对维基百科语料库中职业和个人生活描述中的性别偏见进行了事件中心研究,发现维基百科页面倾向于在女性但不在男性的个人生活事件中夹杂职业事件,应提高维基社区意识以制定指南和培训编辑。
Jun, 2021
本文调查了 304 篇关于自然语言处理中的性别偏见的论文,分析了社会科学中性别及其类别的定义,并将其与自然语言处理中性别偏见的正式定义联系起来,概述了应用于性别偏见研究的词汇和数据集,并比较和对比了检测和缓解性别偏见的方法。我们发现性别偏见研究存在四个核心限制,提出了解决这些限制的建议作为未来研究的指南。
Dec, 2021