通过允许学习者与其环境交互,我们提出了一种特定的目标函数来发现相应于环境中互相独立可控方面的因素,并在没有任何外在奖励信号的情况下验证其可以实际分离出这些因素。
Aug, 2017
通过探究代理与环境的交互作用,并提出一种特定的目标函数,本文证实无需外在激励信号的情况下,能够发现独立可控因素并实现解耦。
Feb, 2018
本文提出一种表示学习算法,该算法可以将隐含特征分解为可控和不可控两个部分,从而提高表示的可解释性并有效学习和规划。通过在三个不同的环境中展示该算法的分解性质,强调了该方法的优势。
Oct, 2022
研究在在线回归模型中,个体会通过改变自己的特征来改进模型所预测的得分,并探讨在这一过程中,如何精准地找出对结果有意义的特征,并通过激励机制鼓励学习模型学习这些特征。
Feb, 2020
提出一个称为 Controllable fActor Feature Attribution (CAFA) 的方法,将特征划分为可控和不可控部分来计算相关特征的相对重要性,使用 CAFA 算法在现有数据集和 COVID-19 的非药物控制措施数据集中测试,得到的实验结果表明,使用 CAFA 算法的解释可以排除不可控特征的影响,同时保留完整的数据集进行预测。
Mar, 2022
本文提出了 IFactor 框架,它由四类潜在状态变量建模,以捕捉强化学习系统中各种信息的不同方面,并在合成环境和深度强化学习环境中展示了其性能优于基线的实验结果。
Jun, 2023
本文研究在机器学习中从观察数据中识别因果关系的问题,探讨如何帮助学习高级变量及其中的因果结构,并介绍了一套基于强化学习的环境用于测试表示学习算法的性能。研究表明,模型中显式地融合结构和模块化有助于因果识别。
Jul, 2021
本文研究了如何使用自编码器模型来解决因素糾纏問題,並通過在圖像對和三元組之間施加約束來訓練它。在實驗中,我們證明了此模型可以成功地在多個數據集上轉移屬性,但也存在參照模糊的情況。
Nov, 2017
本文提出一种训练生成模型的方法,通过强制要求上下文信息分离和知觉循环一致性的结合,让潜在变量只会影响到某个物体的局部区域,从而实现对象为中心的操作,而且不需要对象级别的注释。
Apr, 2020
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020