- 对话场景外提示提升大型语言模型预测的公平性和鲁棒性
通过利用因果关系作为一种工具来提高大型语言模型的可信度,我们提出了一种测试时解决方案 —— 利用开放背景提示来鼓励公平性和稳健性,以使模型在不同基准数据集上提供更可靠的预测。
- 构建公平数据集的挑战分类
通过与 30 名机器学习数据集策展人的访谈,我们提出了一套全面的数据集策划生命周期中遇到的挑战和权衡的分类法。我们的研究结果突显了整体公平性景观中影响数据策展的普遍问题。最后,我们提出了旨在促进系统性变革以更好地推动公平数据集策划实践的建议 - 深度学习短期犯罪预测中提高公平性的研究
本研究提出了一种新颖的深度学习架构,结合了预处理方法和处理方法来提高预测的公平性,结果表明相比于偏见校正方法和没有任何偏见校正的模型,所提出的模型在提高犯罪预测的公平性方面取得了进步,但牺牲了一定的准确性。
- 关于公平感知分类器的最大局部差异
通过提出一种称为最大累积比不平等的新公平度量指标(MCDP)来衡量算法的最大局部不平等,提供比传统公平度量更准确和高效的计算方法,并通过不可导逼近的 MCDP 的优化算法提高算法公平度。在基于表格和图像的数据集上进行的广泛实验验证了我们的公 - FedStaleWeight: 缓冲同步异步联邦学习中基于延迟重加权的公平聚合
FedStaleWeight 算法通过使用平均陈旧度来计算公平重新权重从而解决了异步客户端更新聚合中的公平性问题,并且在流畅的非凸环境中提供了理论收敛保证,与常用的异步 FedBuff 梯度平均方法相比,实验证明它在加强公平性、加速收敛到更 - 使用 BRIO 工具评估信用评分中的人工智能公平性
我们提出了一种定量,深入分析 AI 系统中的公平问题的方法,并将其应用于信用评分。我们使用了 BRIO 工具来评估 AI 系统在社会不公正和道德上不可取行为方面的情况,其中包括了一个模型无关的偏见检测模块和一个完整的不公平风险评估模块。我们 - 提升无监督图异常检测的公平性通过解耦
图异常检测(GAD)在各种应用领域中变得越来越重要,从金融欺诈检测到假新闻检测。然而,目前的 GAD 方法很大程度上忽视了公平性问题,这可能导致偏向某些基于敏感属性(如性别、宗教、种族等)定义的人群的歧视性决策。为了解决这一关键问题,我们首 - LIDAO: 限制干预以解决(大规模)语言模型偏见问题
大型语言模型中的公平性和流畅度之间的权衡问题研究,提出了一种基于信息论的框架 LIDAO,用于使语言模型更好地实现公平性而仍保持流畅度。
- 自主驾驶中的公平性:对挑战性天气下目标检测的混淆因素的理解
自主驾驶车辆部署迅速扩张至多个城市。本研究分析了目前最先进的基于 Transformer 的目标检测器中对行人检测公平性的全面实证分析,包括经典度量和新颖的基于概率的度量,以探索保护属性和环境因素对目标检测性能的影响。
- 经过分值校准的阈值无关公平匹配
在数据清洗中特别是在实体匹配任务中,本文提出了一种生成匹配分数的方法,以减少不同阈值下的偏见,从而减少数据清洗领域中的偏见。
- 由专家指导的毒性符号消除以实现无偏生成
通过使用 DESM 提供的网站,您可以在输入框中输入您的想法或问题,然后 DES 将基于这个输入提供一个自动生成的并针对您输入的文本进行适当恢复或继续的建议。
- 促进动态车辆路径问题中的双边公平性
我们提出了一个新的框架,即双方公平感知遗传算法(2FairGA),该算法将基因算法从仅关注效用的原始目标扩展到同时包含双方公平性的多个目标。大量实验证明我们提出的框架优于现有技术水平。
- 后公平联邦学习:通过后处理在联邦学习中实现群组和社区公平
提出并分析了一种后处理公平联邦学习 (post-FFL) 框架,该框架使用线性规划同时强制实施群体公平性和社区公平性,以提高全局模型的效用。实验证明,post-FFL 在提高群体公平性、社区公平性、通信效率和计算成本方面优于现有的内部处理公 - 大型语言模型中固有的社会经济偏见理解
大型语言模型在关键决策过程中被广泛应用,但其中的固有偏见可能导致歧视性结果。本文研究了人口属性和经济偏见在大型语言模型中微妙的关系,这是一个重要但鲜为人知的公平性领域。我们提出了一个新的数据集,包含一百万个英文句子,以系统地量化各个人口群体 - 走向临床 AI 公平性:填补谜题中的空白
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对 - 关于大型模型的低秩适应的公平性
通过对视觉和语言领域的分类和生成任务进行广泛实验,我们发现低秩适应(LoRA)在许多情况下具有与基准模型或其完整微调基准相当甚至更好的公平性,但也引发了适当任务设计和模型成员偏差评估等公平性评估方面的复杂性。
- 公平性 - 准确性权衡:因果视角
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来 - 关注差距:预测与决策中的偏见放大的因果视角
通过因果分解从真实世界中存在的偏见与优化过程本身导致的因果差异中解脱出来,研究论文引入了边界互补的概念,并提出了衡量预测分数变化的新方法,以解决自动化系统的公平性和公正性问题。同时,还介绍了部分业务必要性的概念和评估算法,以应对潜在的偏见放 - 利用流浪学习捕捉面部伪造的模糊异常
本研究提出了一种名为 “偏离学习” 的方法,通过混合高频组件的混合伪造语义(称为异常)进入真实的图像,从而消除了将模型偏向特定语义的偏见,提高了模型的泛化能力和检测公平性。
- 語言模型在有害言論檢測中表現出性別流?言論偏見
对社交媒体平台上的内容审查进行分析,研究其对性别多元化言语模式的偏见,并提出五个现成的语言模型在评估这些文本的伤害程度时的性能评估。