- 注释对齐:比较 LLM 和人工注释的对话安全性
在研究中,我们通过对标注的一致性来探讨 LLMs 与人类安全感知的程度。我们利用最近的 DICES 数据集,在该数据集中,350 个对话被 10 个人种 - 性别群体的 112 名标注者进行了安全性评级。GPT-4 与平均标注者评级的皮尔逊 - 公平 LENS:评估执法语音识别中的公平性
为了确保在不同的音响环境中为不同的人群提供公平性,我们建立了一个系统性的公平评估框架,通过一种新颖且适应性强的评估方法来检查不同模型之间的公平差距,并收集了多种情景和人口学维度的公平评估数据集。我们对 1 个开源和 11 个商业化最先进的 - 跨关怀:预训练数据对语言模型偏见的医疗影响评估
介绍了 Cross-Care,这是第一个专门评估 LLMs 中存在的倾向和现实世界知识的基准框架,重点关注不同人群中疾病患病率的表征,并揭示了在预训练文本中嵌入的人口统计偏差如何影响 LLMs 的输出。结果显示,LLMs 对疾病患病率的表征 - 走向算法的忠诚度:合成数据与人工生成数据中的心理健康代表性跨人口统计学
使用 GPT-3 进行合成数据生成,分析不同人口统计学特征在其中的代表性应用与压力因素,为未来研究者提供对使用 LLMs 进行数据生成的启示。通过控制种族、性别和时间范围,我们开发了一个关于诱发抑郁压力因素的 3,120 个帖子的合成数据集 - T-HITL 有效解决图像生成中的问题关联并保持整体视觉质量
生成型 AI 图像模型可能无意中生成有问题的人物表现,并可能加剧和加速现实世界中的歧视和其他危害;本文针对生成型 AI 模型中人口群体和语义概念之间的有问题关联进行研究,提出了一种新的方法论 T-HITL,既解决了这些关联问题,又保持了图像 - AAAI无偏见!个性化推荐的公平联邦图神经网络
确保在推荐系统中跨人口群体的公平性至关重要,本文提出了一种名为 F2PGNN(公平联邦个性化图神经网络)的新框架,通过结合个性化图神经网络和公平考虑来解决不同人口群体之间固有偏见的普遍问题,在保护个人隐私和保持效用的同时,在联邦学习环境中使 - 图神经网络中的差异、不平等和准确性权衡:节点分类
图神经网络(GNNs)在预测属性图中节点标签的关键人类应用中越来越常见。然而,GNNs 聚合邻居节点的特征以提高分类准确性的能力也可能加剧数据中现有的偏见或向保护性人口群体引入新的偏见。因此,必须量化 GNNs 的偏见程度以及减轻其有害效应 - 街上的黑皮肤个体存在更大的风险:揭示自动驾驶系统公正问题
该论文在自动驾驶系统中进行了公平性测试,发现了与年龄和肤色相关的显著公平性问题,并且研究表明在低对比度和低亮度的情况下,对深肤色行人的偏见增加了。
- ICML公平范围聚类的近似算法
研究公平间距聚类问题,提供 O (1) 的近似算法在最多 k+2l 个中心中选择最小化聚类成本的一组中心,并仅在每个人口统计上最多违反 2 个加法项的上限。
- 公平 GNN 的人口迁移
提出了一种名为 FairMigration 的新型框架,它可以动态迁移人口群体,解决在训练 Fair GNNs 时存在的个人敏感信息偏见问题,该框架分为两个学习阶段,第一个阶段进行个人化自监督学习并动态调整人口群体,第二个阶段在新的人口群体 - ACL以哪些正确的理由来诉求正确?
本文采用人类理性注释,跨越情感分析和常识推理三个数据集,并涵盖男女老少不同族裔人群,探究了模型预测与人类理性对齐的程度,并指出了现存的一些主观性问题。作者发现模型存在偏见,更倾向于与年龄较大或白人注释器的理性对齐。
- ACLKoSBI:减少社会偏见风险的数据集,以更安全的大型语言模型应用为目标
通过构建本土化社会偏见数据集,可以减少韩国大型语言模型的社会偏见,有效地保证其安全、可靠、有效地部署。
- GPT 的年龄是多少?:使用人口统计数据的 HumBEL 框架来评估语言模型
本研究提出了一种通过临床方法测量和比较语言模型语言技能,以及自动化技术对其进行评估的方法,发现 GPT-3.5 模型在不同任务中具有不同的能力,并在社交语言使用上存在困难。因此在使用这些模型作为公共工具时,重要考虑社会任务需求及相关人群的使 - 理解偏见需真正均衡的数据集?影响准确性的因素并非身份和图像数量
本文讨论人脸识别准确率差异的问题,指出虽然许多数据集都平衡了各个人群中身份的数量和图像的数量,但身份和图像数量并不是影响一对一人脸匹配准确性的决定因素,因此需要一个更具有偏差意识的工具包来创建跨人群的平衡评估数据集。
- 语言模型反映了谁的观点?
通过 OpinionsQA 数据集,本研究提出了一种量化框架,调查语言模型中体现的观点与美国 60 个人口群体的观点的一致性,在包括堕胎和自动化在内的话题上,我们发现当前的语言模型与 US 人口集体观点之间存在相当大的不匹配,即使是明确定向 - 基于注意力机制的个性化联邦学习在缓解学生表现预测中的偏见方面的应用
本文提出一种优化预测能力以针对不同种族和性别等人群的学生表现的方法,通过联邦学习建立个性化学生模型,结合自我监督预训练和神经网络注意力机制,实现针对不同学生子群体的个性化模型派生,有效改善学生建模结果的预测能力。
- ACL道德准则是否有自己的道德准则?探究德尔斐道德哲学
通过一些标准的道德问卷,研究发现虽然有些不一致,Delphi 模型与参与注释的人群所关联的道德原则相似,但是研究质疑了这种模型的可取性,并探讨了如何在这一基础上推进。
- 面具背后:PII 掩码中姓名识别的人口统计学偏见
本文评估了三种现成的 PII 掩码系统在名称检测和删除方面的性能,发现基于 RoBERTa 的开源系统表现优于商业模型,但是所有系统都存在由于人口统计学差异而存在显著差异的错误率,特别是与黑人和亚洲 / 太平洋岛民个人有关的名称。
- 通过平衡影响训练公平的深度神经网络
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实 - 联邦学习中的公平模型学习组
本文介绍了一种新的联邦学习公平性指标 --minmax 小组公平性,并提出了一种名为 FedMinMax 的算法解决该问题,实验结果表明该算法在不同联邦学习设置下实现了小组公平性和中心化学习算法的性能保证。