关键词bias mitigation techniques
搜索结果 - 9
- 大型语言模型中固有的社会经济偏见理解
大型语言模型在关键决策过程中被广泛应用,但其中的固有偏见可能导致歧视性结果。本文研究了人口属性和经济偏见在大型语言模型中微妙的关系,这是一个重要但鲜为人知的公平性领域。我们提出了一个新的数据集,包含一百万个英文句子,以系统地量化各个人口群体 - 信任公平数据:利用质量优化公平导向的数据去除技术
通过引入多目标优化问题来平衡公平性和数据质量,我们提出了一种找到帕累托最优解的方法,以消除偏见缓解技术对数据集的剔除特定数据点所带来的信任问题,并保证子集对整体人群的公平性、组覆盖率和最小数据损失。
- 如何做到公平?对标签和选择偏差的研究
存在情况下,偏见缓解技术能够更准确的模型,在无偏数据上测量时。我们通过对偏见类型和缓解技术的效果建立关系来解决这一问题,并用理论分析来解释实验结果,并展示最小化公平度量并不一定会产生最公平的分布。
- 自去偏大型语言模型:零样本识别和降低刻板印象
本文介绍了一种零样本自我去偏见技术,通过解释和重提出两种方法,利用大型语言模型来降低刻板印象。我们展示了自我去偏见技术能够在不需要修改训练数据、模型参数或解码策略的情况下,减少九个不同社会群体的刻板印象程度,其中解释能够正确识别无效假设,重 - 超越准确性和公平性:不再仅基于群组间指标对偏见缓解方法进行评估
人工智能(AI)在各领域广泛应用,引发对公平性的关注。然而,现行的讨论往往强调基于结果的度量,而对亚组内不同影响缺乏细致考虑。偏见缓解技术不仅影响敏感组之间实例的排名,而且通常也显著影响这些组内实例的排名。这种变化很难解释,并引发对干预有效 - 数据与模型的机器学习公平性测试:实证研究
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而 - 降低异构设备中联邦学习的群体偏差
我们提出了一个群体公平的联邦学习框架,旨在在保护隐私和没有资源利用开销的情况下,减少群体偏见。我们通过利用平均条件概率来计算由异构训练数据得出的跨领域群体重要性权重,使用修改的乘法权重更新方法来优化表现最差的群体的性能。此外,我们提出了正则 - 目标无关的性别感知对比学习在多语言机器翻译中缓解偏见
针对多语言机器翻译模型中明显的性别偏见问题,提出了一种新的缓解方法,Gender-Aware Contrastive Learning,通过伪标签在编码器嵌入中编码性别信息来提高性别准确度并改善其他目标语言的性别准确度。
- ACL预训练语言模型去偏差技术有效性的实证研究
本文调查了五种最近提出的消除算法:CDA、Dropout、Iterative Nullspace Projection、Self-Debias 和 SentenceDebias 的有效性。实验结果显示,Self-Debias 是最有效的去偏