- 使用三维先验增强二维表示学习
通过在训练过程中直接强制将强大的三维结构先验性知识融入模型,我们提出了一种新的方法来加强现有的自监督学习方法,并通过一系列数据集实验证明了我们的三维感知表示比传统的自监督基线更加稳健。
- 不良批次:通过代表性批次策划提升图像分类中的自监督学习
通过 Fréchet ResNet Distance (FRD) 使用成对相似度计算来获得稳健的非标注数据表示,从而显著提高自我监督对比学习中用于图像分类任务的线性分类器的准确率。
- WWW动态图信息瓶颈
该论文介绍了一种名为动态图信息瓶颈(DGIB)的框架,用于学习动态图的稳健和有区分性的表征,并在真实世界和合成动态图数据集上的实验中展示了其对抗攻击的优越鲁棒性。
- 重访视觉基础模型时代的主动学习
基于基础模型的主动学习策略通过利用稳定的表示形式,平衡不确定性估计和样本多样性,在标签效率方面取得了令人印象深刻的成果。
- 认知模式感知的变分表示学习框架用于知识追踪
在个性化学习中,知识追踪任务起着至关重要的作用,它的目的是根据学生的历史学习行为序列来预测他们的回答。然而,由于数据稀疏性,知识追踪任务难以学习到适用于少量学习记录的学生的健壮表示,同时增加了模型过拟合的风险。因此,在本文中,我们提出了一种 - CARLA:一种用于时间序列异常检测的自监督对比表示学习方法
我们引入了一种自监督对比表示学习方法(CARLA)用于时间序列异常检测,这是一种创新的端到端自监督框架,精心开发,用于识别单变量和多变量时间序列数据中的异常模式。通过利用对比表示学习,CARLA 能够为时间序列窗口生成稳健的表示。它通过 1 - 基于 t-vFM 相似度的鲁棒特征学习方法用于连续学习
本文提出使用不同的相似性度量方法来替代余弦相似性,以学习更加健壮的表示形式,从而提高连续学习中的图像分类任务的效果。
- ACL通过分类器分解增强连续关系抽取
许多先前的 CRE 研究仅采用传统策略,但是本文提出,此策略在训练后会出现分类器偏差和表示偏差,导致模型遗忘已学习的知识,因此我们提出了一个简单而有效的分类器分解框架,实验结果表明我们的方法性能优于现有的方法。
- 使用等价关系度量的聚类进行稳健的视觉强化学习并抵御干扰
通过聚类与双模拟度量相结合的方式,提出了一种新颖的方法 (Clustering with Bisimulation Metrics, CBM),用于学习视觉信息的鲁棒表示,从而提高强化学习的样本效率。实验证明,CBM 显著改善了流行的视觉强 - 强化学习中的局部约束表达
本文提出一种局部约束表示法,通过对环境观测状态的预测及邻近状态的表示作为辅助损失,将强化学习中的表示与任务相分离,可以提高泛化能力,有效应用于连续控制任务中。
- CVPR稳健的跨模态表示学习与渐进式自蒸馏
通过交叉模态对比学习以及软图像 - 文本对齐等方法,改进了 CLIP 模型,在处理带有噪声的数据集时能更加高效地学习出具有鲁棒性的表示。经过对 14 个基准数据集的广泛评估,该方法在多种设置下表现均优于 CLIP,并且没有增加计算成本。此外 - PaRT:面向鲁棒和透明人工智能的并行学习
本文将深度学习网络并行训练于多项任务,实现多任务互相共享网络资源,从而达到优化网络资源利用率、防止遗忘、提高网络透明度,同时实现机器学习的鲁棒性。
- ICLR协变量偏移的最优表示
介绍了一种简单的变分目标,其极值恰好是所有表示集合,其风险最小化器保证对任何保留贝叶斯预测者的分布转移都是强健的,例如,协变量转移。该方法包含了两个方面,第一个方面是表示必须保持判别,即某些预测者必须能够同时使源风险和目标风险最小化;第二个 - 使用语义衰减的负样本进行稳健的对比学习
本研究通过生成精心设计的负样本,表明对比学习可以学习到更具有鲁棒性的表示,减少对低级特征的依赖,而我们通过纹理和面板增强的方式生成负样本,在特定的 ImageNet 数据集上分类时表现出一定的可行性
- ICML检测和应对分布偏移下的伪特征
本文主要探讨机器学习中机器如何学习到能够捕捉输入特征与输出标签之间因果关系的鲁棒性表征,以及在有偏或有限数据集上可能存在的虚假相关性。提出了一种基于最小充分统计量的鲁棒表征和虚假表征的信息理论概念,并基于分组分布式鲁棒优化方法来缓解输入分布 - ICMLDRIBO: 多视角信息瓶颈下的鲁棒深度强化学习
本研究利用多视角设置引入对比的多视图信息瓶颈目标训练深度强化学习代理程序,从而可以学习到能够保留任务相关信息但压缩掉任务不相关信息的强大的表示,进而训练出具有鲁棒性和泛化性的高性能政策。
- CVPR基于分布的双向生成对抗网络用于图表示学习
本文提出了一种基于分布感知的双向生成对抗网络(DBGAN)来学习图表示,该网络通过原型学习隐式地桥接了图和特征空间,生成了所有节点的判别性和稳健性表示,并通过双向对抗学习框架平衡了对样本级和分布级一致性,在各种任务中实现了更有利的折衷方案。
- 随机加权网络的有趣属性:在几乎没有学习的同时进行泛化
该论文研究深度神经网络的性质和学习方式,发现在深层卷积神经网络中,固定大部分权重可以在性能表现上与训练所有权重相媲美,探讨了该性质在创建更强鲁棒性的表示方面的应用。
- AAAI对抗网络嵌入
本文提出了一种基于生成对抗网络的对抗网络嵌入(ANE)框架,它通过捕捉网络结构特性和匹配潜在表示的后验分布以提高鲁棒性,可以用于节点分类、链接预测和网络可视化等任务,并在基准数据集上取得了竞争性或优异的表现。