Jan, 2025

LangFair:用于评估大型语言模型使用案例中的偏见和公平性的Python包

TL;DR本研究解决了大型语言模型在性别、种族、性取向或年龄等受保护特征方面表现出的偏见问题。我们介绍了LangFair,一个开源Python包,提供工具来评估与特定使用案例相关的偏见和公平性风险。该包的主要发现是,它通过生成评估数据集和计算适用的评估指标,能够有效辅助从业者进行偏见和公平性评估。