关于解耦表示的公平性
本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和(隐式)监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
该研究论文探讨了学习表示方法和多个敏感属性之间实现群体和子群体公平性的方法,通过提出一种算法来实现紧凑立体的数据表示,该算法可以灵活地进行公平性调整,同时不需要使用敏感属性进行推理,拥有较好的分类效果。
Jun, 2019
该研究提出了一种理论上的度量方法来评估机器学习中所谓的disentangled representations的质量,这些方法可以让不同的机器学习模型公平地进行比较。
Aug, 2019
该论文指出只需要知道环境中有多少因素发生了变化,而不必了解哪些因素发生了变化,就足以学习到分离的表征,同时实验表明,这种弱监督方式足以在多个基准数据集上可靠地学习到分离的表征,并在多个任务上发挥作用,包括协变量漂移下的一般化、公平性和抽象推理。
Feb, 2020
本文提出了一种新颖的分离方法来解决不变表示的问题,通过正交约束作为独立的代理来将有意义和敏感表示分离,并通过熵最大化来明确地强制有意义的表示对敏感信息不可知。该方法在公开的数据集上进行了评估,并将其与最先进的方法进行了比较,证明其在处理公平性和不变性方面具有最先进的性能。
Mar, 2020
本文提供了对无监督学习解开重要变动因素的最新发展的观点,旨在挑战一些常见的假设。本文首先从理论上证明了,无监督的解开表示恒妄图反演和数据上的约定性偏见是不可能的。接着,通过对8个数据集进行超过14,000个模型的训练,本文发现虽然不同的方法成功地实现了相应损失所鼓励的特性,但是没有监督的情况下,好的解开模型似乎无法被识别。此外,不同的评估指标并不总是在什么应该被认为是“解开的”上达成一致,而且在估计上表现出系统性差异。最后,增加的解开性似乎并不一定会导致学习下游任务的样本复杂度减少。本文的结果表明,关于解开学习的未来工作应该明确归因于诱导偏见和(隐含的)监督的作用,研究解开表示的具体好处,并考虑到涵盖几个数据集的可重复的实验设置。
Oct, 2020
本文提出了一种基于代理属性与敏感属性的公平性框架,通过梯度解释找到模型关注点,再利用它们来指导下游任务模型的训练,以实现公平性和效用之间的平衡。实验证明,我们的框架在非分离和分离表示学习方法上具有更好的公平性-精度平衡。
May, 2023
从多种上下文环境的观察中提取现实的抽象表示是深度学习的一个追求目标之一。本文采用信息论的视角来研究这个问题,提出了一种新颖的正则化方法,称为CLINIC损失,通过大量的数值实验证明了这种方法在解缠表征与准确性之间取得更好的平衡,并且在不过于限制解缠任务的情况下具有更好的普适性。
Oct, 2023