- 因果交集性和梯度下降的双重形式:对令人讨厌的模因进行多模态分析的案例研究
该研究通过融合因果分析和基于梯度的方法,探讨了机器学习模型内部机制如何揭示其因果效应,以及如何将恶意模因检测问题转化为 ATE 并利用渐近梯度方法解释模型行为,进而研究了最新的大型语言模型 LLaMA2 在语境学习环境中揭示交叉性的能力。
- 信用中的公平模型:交叉歧视与不公平加剧
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为 - 迈向公正的面部验证:对人口统计偏见的深入分析
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重 - 交叉性别与医疗记录中的证言不公正
本研究旨在使用实际医疗数据探讨使用交叉因素的公平度量方法,以更准确地检测在医疗记录中可能导致口述不公的言语,并通过分析人口统计特征的交叉作用,发现不同人群在治疗中受到的不公平待遇差距,并提出解决方案。
- ACL标记人设:使用自然语言提示来测量语言模型中的刻板印象
本文提出了基于提示的标记人物法(Marked Personas),其使用无词库或数据标注的方法来测量具有交叉社会群体的 LLMs 中的刻板印象,结果显示 GPT-3.5 和 GPT-4 生成的叙述比使用相同提示的人类撰写的叙述包含更多种族刻 - 走向女性主义交叉解释型人工智能:从可解释性到响应能力
本论文探讨了女性主义交叉视角在人机交互与 AI 设计中的重要性,并提出了增强反应能力和将边缘化视角置于中心的解释性 AI 设计方向。
- 面向群体的 NLP 仇恨言论检测方法
本研究提出了一种针对在线仇恨言论检测的 NLP 组特定方法,结合历史和语言知识并通过种族和伦理学等角度对模型进行评估,实验结果表明结合历史数据库可以帮助模型识别细微的刻板印象,同时该方法用于检测反犹太主义仇恨言论,成果将现有的反犹太主义研究 - Queer In AI:社区参与人工智能的案例研究
通过 Queer in AI 的案例研究,我们探讨参与式设计和交叉性原则是如何塑造该社区项目的,并从中挖掘了重要的教训和见解,这些教训和见解为 AI 的参与式方法论和社群参与作出了贡献。
- 权力结构矩阵的因素分解:对 AI 公平性中交叉性理论的批判性评论和再想象
本研究探讨交叉性是如何应用于 AI Fairness 领域,并指出研究人员在这个应用方面所存在的概念和实践差距,并提出了关于如何改进这种状况的建议。
- 交叉公平性:分形方法
通过在超立方体的几何设置下,将交叉公平问题分层分析,证明了公平并不向下传递,但会向上传递,探讨了公平作为自相似、分形、关联属性在人工智能中的自然涌现。
- 自然语言处理偏差研究中 “性别” 理论
该研究回顾了近 200 篇关于 NLP 中有关性别偏见的文章,发现大部分文章没有明确说明他们如何理解性别,甚至没有使用包容性的模型,对非二元性别人群的存在和经验忽视,提出建议以便在 NLP 研究中融入女性学理论和方法,以期实现更加包容的性别 - 使用情感规范化实现自动决策中的公平性的新方法
本文探讨了使用情感一致性来测量决策中的情感偏见,并将其用于规范结果映射,从而解决交叉公正性中的三个关键问题:对公平性考虑的类别定义;无限回归成越来越小的组;基于基本人权或其他先前信息确保公正分配。
- 隐性偏见下的选择:交叉约束的优势
通过对交叉应用于选择过程中的特定约束条件,减少隐性偏见所带来的不平等,并提高决策效用。
- 交叉性分析:通过类型抽象控制组合爆炸
本文介绍了一种分析性设计方法来帮助 HCI 设计师将一个人群的多种身份属性连接和分离以解决研究难度大和先前工作无法转化的问题,并通过四个设计用例说明了该模型如何降低研究成本和为新的交叉人群提供帮助的作用。
- 箱外偏见:流行生成语言模型中的交叉职业偏见的实证分析
本文通过分析 HuggingFace 最流行的文本生成模型之一 GPT-2 在职业关联方面的偏见来检测大型语言模型的偏见,数据采集基于模板,同时探讨了性别、宗教、性取向、族裔、政治立场和大陆名字起源等因素的影响。
- AAAI使用最坏情况比较来特征化交叉群体公平性
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律 - 交叉公平的贝叶斯建模:偏差的方差
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
- 公平的交集定义
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。