Jan, 2023
预训练语言模型中衡量代表性伤害的度量指标的实证研究
An Empirical Study of Metrics to Measure Representational Harms in Pre-Trained Language Models
Saghar Hosseini, Hamid Palangi, Ahmed Hassan Awadallah
TL;DR本文通过对普及的预训练语言模型(PTLMs)的大规模数据进行实证分析,探讨测量 PTLMs 中对 13 个弱势人群的隐含偏见和有害内容所产生的表示损害的方法,并发现神经网络的深度对于减轻表示损害有所帮助。