CICLAD:用于数据流的高速、内存效率优秀的闭合项集挖掘算法
本文介绍了一种称为循环因果推断(CCI)的算法,能够在条件独立神经元操作符下对循环因果过程进行有效推断,如将循环因果过程表示为非递归线性结构方程模型与独立误差。实证结果表明,CCI 在循环情况下优于 CCD,且在无环情况下与 FCI 和 RFCI 竞争力不相上下。
May, 2018
我们提出了一种迭代因果发现算法 (ICD),可在潜在混淆变量和选择偏差的情况下恢复因果图,并演示了 ICD 相较于 FCI、FCI + 和 RFCI 算法,需要更少的 CI 测试并学习更准确的因果图。
Nov, 2021
基于在线继续学习的类别增量学习 (Class incremental learning, CIL) 旨在从数据流中仅使用每个数据点进行一次训练,从一系列新类别中获得知识。本文提出了一种名为 FOCIL 的新的在线 CIL 方法,它通过为每个任务训练随机修剪的稀疏子网络来不断微调主体结构,然后冻结训练好的连接以防止遗忘。FOCIL 还能自适应地确定每个任务的稀疏度水平和学习速率,并确保在所有任务中(几乎)不会遗忘,而无需存储任何重播数据。10 个任务的 CIFAR100、20 个任务的 CIFAR100 和 100 个任务的 TinyImagenet 的实验结果表明,我们的方法在性能上大幅优于 SOTA。代码可在此 https URL 公开获取。
Mar, 2024
提出一种名为 C-FSCIL 的架构,利用超维嵌入,对每个新的类别进行异构存储策略,解决了记忆约束,并通过一些新的损失函数,进一步提高了类向量表示的质量。在 CIFAR100、miniImageNet 和 Omniglot 数据集上的实验结果表明,C-FSCIL 在几乎不用牺牲精度的情况下实现了很高的压缩比。
Mar, 2022
研究了有向无环图中随意多个潜在变量和选择变量条件下因果信息的学习问题,在此设置中,提出了一种能够在计算上比 FCI 算法快得多的新算法 RFCI,虽然 RFCI 的输出在某些情况下比 FCI 输出略微不太具有信息性,但在渐近极限下 RFCI 的任何因果信息都是正确的,研究了一类图形,输出 FCI 和 RFCI 是相同的,并证明了 FCI 和 RFCI 在稀疏高维情况下的一致性。
Apr, 2011
本文提出了一种基于分离学习策略的持续演化分类器(CEC)框架,该框架在每个增量会话中只更新分类器,从而避免了表示的知识遗忘问题,并采用伪增量学习方法优化图参数来构建持续的上下文信息传递网络,以解决少样本类别增量学习(FSCIL)的课程先决问题,实验结果表明该方法在 CIFAR100、miniImageNet 和 Caltech-USCD Birds-200-2011(CUB200)等基准数据集上表现出 remarkable 的优势。
Apr, 2021
本文提出个体分类器与冻结特征提取器(ICE)框架及其三个变体,旨在缓解分类器漂移,以无存储旧类别样本的情况下,连续从数据流中学习新类别。在 6 个分类增量信息提取任务上的实验结果表明,与现有最先进方法相比,我们的解决方案(尤其是 ICE-O)始终表现出显著的改进,提供了强有力的基线和未来研究的启示。
May, 2023
我们提出了 FedFMC(Fork-Merge-Consolidate),它是一种能够处理非独立同分布数据的联邦学习算法,相较于以往的方法,FedFMC 不需要使用全局共享数据子集,同时也不会增加通信成本。
Jun, 2020
本文从几何角度研究了少样本学习的问题,并提出了一个基于 Cluster-induced Voronoi Diagram 的方法,用于集成参数和非参数,进行特征表示和代理表示的组合,以及利用几何层次的异质性进行改进。该方法在 mini-ImageNet、CUB 和 tiered-ImagenNet 数据集上创造了新的最优结果,比第二好的结果提高了大约 2%-5%。
Feb, 2022