- 严重程度可控的文本到图像生成模型的偏倚操纵
通过利用嵌入的语言模型的数学基础,我们的技术使得在模型偏见的作用下对输出的严重程度进行可扩展和便捷的控制,同时也允许通过精确的提示工程生成通常不真实的图像,我们还演示了将此操纵用于平衡生成类别频率的构造性应用。
- 何时适用 Subagging?
我们研究了子采样聚合在回归树上的有效性,证明了树的点态一致性的充分条件,并比较了子采样与树在不同分割数量下的性能,结果表明,子采样在任何给定分割数量下都优于单个树,并且在分割数量较多时改进效果更明显,然而,如果单个树的大小选择不合理,则以最 - 通过对比词对来消除句子嵌入器的偏见
去除自然语言处理中句子嵌入中的线性和非线性偏见信息,以不影响下游性能。通过比较常见去偏方法和考虑非线性信息的去偏指标,探索了这种方法。
- 人工智能模型中的公平追求:一项调查
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的 - ICLR公平 CLIP:利用 RKHS 中的函数消除 CLIP 零样本预测的偏见
提出了一种名为 FairerCLIP 的方法,用于提高 CLIP 模型在公正性和抗干扰性上的性能,通过在重现内核希尔伯特空间中联合去偏置 CLIP 的图像和文本表示,实现了灵活性、优化简易性、样本效率和性能的提升。
- 通过众包补丁标记提取人类注意力
我们提出了一种将人工智能辅助与众包相结合的新颖贴片标记方法,用于减轻图像分类中的偏见,并通过改进分类准确性和模型的注意力焦点来证明其有效性。同时,众包实验证明我们的方法要比使用多边形标注目标位置快 3.4 倍,显著降低了对人力资源的需求。
- 在大型语言模型中定位和缓解性别偏见
本研究提出了一种基于因果中介分析的方法来追踪大型语言模型中不同组件激活的因果效应,并在此基础上提出了最小二乘去偏(LSDM)方法,用于减少职业代词中的性别偏见,实验结果表明 LSDM 方法比其他基线方法更有效地减少模型中的性别偏见,同时在其 - 利用子群阈值优化提高信贷模型中的公平性
为了提高信贷决策的准确性,许多金融机构现在使用机器学习模型的预测。然而,最近的研究表明这些预测有潜在的偏见和不公平对待某些人群。为了解决这个问题,引入了一种名为 “子群阈值优化器”(STO)的新的公平技术,它不需要对输入训练数据进行任何修改 - 伦理学:在正交参数空间中修正语言模型
我们提出了一种新的高效方法 Ethos,通过将任务向量投影到主成分上,从而识别编码了一般或不希望知识的主成分,以仅使用包含不希望知识的任务向量进行否定,从而最小化对一般模型效用的附带损害,实验证明 Ethos 在消除不希望知识和保持整体模型 - 消除大型视觉语言模型中的偏见
在计算机视觉和自然语言处理领域,本研究重要不可或缺的工具是大型视觉 - 语言模型(LVLMs),它们能够根据视觉输入生成文本描述。然而,我们的调查发现生成的内容存在显著的偏见,主要受到底层大型语言模型(LLMs)的影响而非输入图像。为了纠正 - 生成人工智能中的偏见
这项研究分析了由三种流行的生成人工智能工具生成的图像 - Midjourney、Stable Diffusion 和 DALLE 2 - 代表各种职业,以调查 AI 生成器中潜在的偏见。我们的分析揭示了这些 AI 生成器中两个主要关注领域, - AAAIAI 身份的含义:创造者、创造物和后果
通过身份的视角,本论文探讨了人工智能(AI)与身份的交叉领域,以理解 AI 开发和应用中的偏见、不平等和伦理考虑,并提出了通过身份视角培养更具包容性和负责任的 AI 生态系统的综合方法。
- AAAI无偏的新类别发现和定位
通过 Debiased Region Mining (DRM) 方法和半监督对比学习来解决目标检测中的偏见问题,提出了一种能够有效发现、定位和聚类新类别的训练器,其在 NCDL 基准测试中显著优于先前的方法,成为了新的最先进技术。
- COBIAS:偏见评估中的情境可靠性
大型语言模型 (LLMs) 的研究及应用中存在偏见问题,本论文提出了一种基于上下文的偏见指标和评估分数 (COBIAS) 来测量偏见的可靠性,并且通过创建可靠的数据集来改善偏见减轻工作。
- 随机化可以降低偏差和方差:随机森林的案例研究
我们研究了随机森林相对于 bagging 方法减少偏差的现象,并通过实证研究发现在数据中存在模式时,随机森林在高信噪比情况下减少了偏差和方差,并优于 bagging 方法。对于随机森林中的随机性注入和参数调整也提供了实用的洞见。
- 从偏见到平等:消除大型语言模型词向量偏差的新方法
我们提出了 DeepSoftDebias 算法,该算法使用神经网络执行 “软去偏见”,并在各种 SOTA 数据集、准确度指标和复杂的 NLP 任务中进行了全面评估。我们发现 DeepSoftDebias 在减少性别、种族和宗教偏见方面优于当 - 检测基于 StyleGAN3 模型的生成对抗网络判别器中的病态偏差:一项案例研究
生成对抗网络可生成逼真的面部图像,但在预训练的 StyleGAN3 模型中,鉴别器在图像和面部质量上存在系统性差异,这在性别、种族和其他类别上对图像不公平地影响,我们研究了鉴别器在肤色和亮度上对种族和性别的偏见,并研究了社会心理学中关于刻板 - 视觉语言模型中有害标签关联的偏见
尽管基础视觉语言模型的性能出色,但文本和图像的共享表示空间也可能编码有害的标签关联,对公平性产生不利影响。本研究通过对最近发布的包含超过 70,000 个视频的 “Casual Conversations” 数据集进行调查,发现视觉语言模型 - 利用大数据进行公共卫生决策的影响
利用新的数据来源和人工智能方法,研究街景图像及其对社区健康结果的影响,发现数据的健壮性和模型规范性对有效分配干预措施至关重要。
- 全球撒谎者:LLMs 随时间和地域的真实性
研究评估 GPT 模型的事实准确性、稳定性和偏见,发现较新版本的 GPT 模型并不总是具有更好的性能,存在地域偏见及信息不对称问题,强调了在模型训练和评估中的文化多样性和地理包容性的重要性,以实现全球科技公平和公正分配人工智能的好处。