- IM-Context: 不平衡回归任务的上下文学习
通过研究激励序列对模型性能的影响,本文强调了本地上下文在减少高度不平衡区域内的偏差中的重要性,并在多个真实数据集的情景中证明了在 - 有高度不平衡的情况下,上下文学习显著优于现有的权重学习方法。
- 欺骗以启蒙:诱导 LLMs 自省以增强偏见检测和缓解
大型语言模型(LLMs)嵌入了复杂的偏见和刻板印象,可能导致有害的用户体验和社会后果,而模型本身通常没有意识到这一点。本文强调了为 LLMs 配备更好的自我反思和偏见识别机制的重要性。我们的实验表明,通过告知 LLMs 它们生成的内容不代表 - 面向大型语言模型的审计:提升基于文本的刻板印象检测
本研究介绍了一个多维度刻板印象数据集以及英文文本的新型刻板印象分类器,并通过多类别训练模型在多种可解释 AI 工具下展示出较好的性能,利用该模型评估了流行的 GPT 模型系列的刻板印象行为,并观察到刻板印象的减少,从而为 LLM 的刻板印象 - 核密度比的变分加权
多维变分法引用工具,为减小标准核密度估计的偏差而推导出最优权重函数,从而改善预测后验概率和信息论度量的估计结果,并揭示了核密度估计的一些基本方面,尤其是作为主要构建模块的算法的视角。
- IJCAIOptIForest: 异常检测的最优独立森林
本研究旨在回答孤立森林隔离效率的理论最优分支因子,并通过偏差减少实现更好的偏差 - 方差权衡,提出一种 OptIForest 算法,结合基于聚类的哈希学习,以实现更好的隔离效果、更高效且更具鲁棒性。在一系列基准数据集上的实验表明,该方法普遍 - 视觉问答中语言模态的实证研究
本文通过一系列实验,探究语言模态对视觉问答模型在超出其学习领域的数据上的影响,提出简单的方法来减少模型对语言先验的依赖并在 out-of-distribution 测试集上提高性能。
- ACL逐步翻译:通过中间序列提高神经机器翻译的领域鲁棒性
本文提出了利用中间信号的方法来改善神经机器翻译 (NMT) 的性能,通过引入特定的中间序列可以降低域内和域外的干扰,进而增强 NMT 的鲁棒性和泛化性能,特别是在低资源情况下效果显著。
- 评估最近大型预训练模型中的社会偏见
研究旨在探讨最新的预训练模型中是否比旧模型更负责任地发展,以便降低固有的社会偏见以及探究三个最近的模型(ELECTRA,DeBERTa 和 DistilBERT)在减少偏见方面的总体趋势。实验比较这些模型与基准 BERT 的关联指标,并发现 - 利用上下文学习提高对话安全性
本文研究使用一种基于检索的框架来减少使用神经网络的聊天机器人系统中可能出现的安全问题和偏见,并使用上下文学习生成更加安全的回复,其中演示了使用检索的相似的对话框架所做过的安全模型回答,此方法达到了相对理想的结果。
- 机器学习新领域:MLOps 政策制定者指南
本论文通过对算法偏见的影响及其对边缘化人群的影响进行了探讨,详细介绍了如何在机器学习的生命周期中使用工具来识别可能被引入模型的偏见。
- 一种基于刻板印象内容模型的强健偏见缓解程序
本文证明了在语境化的词嵌入中,刻板印象内容模型可以得到保持,然后使用这些结果来评估一种旨在将语言模型从对少数群体的刻板印象描绘中远离的微调过程,进一步证明了 SCM 术语能够更好地捕捉偏见,通过一种简单的微调过程,可以减少模型中成见的存在, - 关于架构和超参数对于面部识别公平性的重要性
通过对神经网络架构和超参数的搜索来减少面部识别系统中的性别和种族等社会民主维度偏差,最终得到了一系列同时具有准确性和公正性的 Pareto 最优模型,并提供代码和数据让研究人员和实践者使用。
- EMNLP控制偏见暴露以实现公平和可解释的预测
本文提出了一种公平去偏算法,通过调整预测模型的信念,尽可能使用敏感信息来进行预测,并在必要性最小化的同时承受一定的惩罚,以达到去偏和任务性能之间的理想平衡,并生成经过去偏的证明。
- ECCV长尾类别增量学习
本文提出了两种长尾分布的增量学习场景,研究了在这两个场景下现有方法的表现,并提出了一种包含学习可调权重层的两阶段基线,用于减少由长尾分布引起的偏差,同时提高常规增量学习的性能。在 CIFAR-100 和 ImageNet-Subset 上, - KDD针对推荐系统成员推断攻击的学习去偏置化
通过对成员推断的镜头研究,我们探讨了推荐系统面临的隐私威胁。针对状态观测问题,我们提出了一种基于 VAE 编码器和重量估计器的去偏置学习方法来抵御攻击,实验验证了这个方法可以同时有效减轻训练和估计偏差,并可以取得先进的攻击性能。
- 使用基于优化的方法估计因果效应:综述与实证比较
本文对因果推断、优化方法与观察型研究、偏差减少与比较分析等方面进行了综述。
- ICLRFairCal:针对人脸验证的公平校准
该研究介绍了一种名为公平校准的后训练方法,用以减少面部识别模型中的偏见,并提高模型准确性和公平性,同时避免再训练、再调整模型以及敏感数据泄露等问题。
- ACL理解和应对刻板印象:基于计算方法的刻板印象内容模型研究
通过计算 SCM 模型方法的实施,本文针对文本中的刻板印象进行解释和应用,同时研究了通过反刻板印象来减少偏见思维的有效策略。
- AAAI解决偏差度量数据集中不同数据分布问题的 GAP 方法
在自然语言处理中,引入了一种基于理论的测试样本加权方法,以解决在性别偏见测量的指代消解数据集中出现的样本相互关系,例如在女性子集中出现的长期依赖性问题,重新评估了 16 个核心解决方案。
- EMNLP通过集成对抗训练避免自然语言推理中仅有假设的偏差
采用对抗性训练和敌对对抗方法的集成来降低自然语言推理中的偏见,这种方法比先前的去偏见努力表现更好,并且在推广到 12 个其他数据集时表现良好。