本研究使用 ConceptNet 知识库,定量地定义并量化了其偏见,研究了其在四个不同人群的表现差异,并提出了一种基于过滤的偏见缓解方法,最终发现该方法能在减轻资源和模型中的问题方面发挥作用,但会导致性能下降,还需要进一步的研究以建立更公平、更强大的常识模型。
Mar, 2021
本文针对自然语言处理中的语言偏见问题,提出了一种用于识别美国司法审判文件中的嵌入有性别和种族刻板印象的词语的方法,并对法律域中的这些性别和种族偏见问题进行了分析并提出了可能的缓解策略。
Mar, 2022
本文针对语言技术和人工智能领域的进展和应用进行研究,探讨印度视角下法律领域中所存在的公平性问题,特别关注AI模型中的算法偏差对于对印度教和穆斯林的关联特征的差异性的影响,并强调了在印度的法律领域中,公平性/偏差的研究仍有待进一步的耕耘。
Mar, 2023
该研究探讨了大型语言模型中的性别偏见问题,特别关注GPT-2和GPT-3.5等多个语言模型之间的比较,通过对生成的文本进行全面的文献综述和定量分析,发现了性别化词汇关联、语言使用和偏见叙述的问题,并提出了减少性别偏见的算法和数据增强技术。该研究强调了学科间合作的重要性和社会学研究在减少AI模型性别偏见中的作用。
Jul, 2023
离婚,性别不平等,法庭诉讼,NLP方法,社会不平等
使用生成式语言模型对复杂任务进行分类的能力有限,需要进行精细调优,而对法律推理的分类则表明人工注释密集的分类方法仍然具有重要意义。
Oct, 2023
通过研究法律数据集和大型语言模型产生的案件判决摘要中存在的偏见,分析其对法律决策的影响,揭示大型语言模型和预训练的摘要模型生成结果中存在的有趣偏见,并探讨这些偏见背后的原因。
Dec, 2023
人工智能和大型语言模型的进步正在给法律领域的自然语言处理任务带来深刻的转变。大型语言模型在法律部门展示出越来越多独特的优势和各种挑战。本调查研究了大型语言模型与法律系统之间的协同作用,例如在法律文本理解、案例检索和分析等任务中的应用。此外,该调查还突出了大型语言模型在法律领域面临的关键挑战,包括偏见、可解释性和道德考虑,以及研究人员如何解决这些问题。调查展示了针对不同法律体系量身定制的最新进展,以及用于各种语言的大型语言模型微调的法律数据集。此外,它提出了未来研究和发展的方向。
Apr, 2024
该研究提出了一个实验框架,用于自动检测巴西葡萄牙语法院判决中的性别偏见,并描述了这项技术的关键特征,以支持研究和评估法院活动。
Jun, 2024
本研究探讨了大型语言模型(LLMs)中存在的偏见问题,影响其可用性和公平性。通过分析2024年发布的四种领先LLMs在职业和犯罪场景中的性别、种族和年龄偏见,发现这些模型在职业场景中对女性角色的描绘偏差达37%,而在犯罪场景中性别、种族和年龄的偏差分别为54%、28%和17%。研究结果强调了当前偏见缓解技术的局限性,呼吁寻找更有效的方法。
Sep, 2024