May, 2023
审视自然语言处理工具在儿童保护服务中种族偏见的风险
Examining risks of racial biases in NLP tools for child protective services
Anjalie Field, Amanda Coston, Nupoor Gandhi, Alexandra Chouldechova, Emily Putnam-Hornstein...
TL;DR通过检验 CPS 的自由文本数据,我们在文本风险预测、共指消解和命名实体识别模型中记录了一致的算法不公平性,强调了将 NLP 应用于 CPS 设置中存在潜在的算法偏见风险,并且即使它们似乎更加良性,也必须关注,这是对 NLP 算法公平性的罕见现实检查和一个与在 CPS 中部署 NLP 相关的特定风险的及时调查。