COIN:针对二分图的 Co-Cluster Infomax
提出了 Coarsened Graph Infomax Pooling (CGIPool) 方法,通过最大化每个池化层输入和粗化图之间的相互信息来维护图级依赖关系,并应用对比学习和提出自注意力算法来实现相互信息神经最大化。在七个数据集上的大量实验结果证明了 CGIPool 相对于现有的最先进方法的优越性。
May, 2021
本文提出一种叫 BiGI 的双分图嵌入方法,引入了一种新颖的局部 - 全局 infomax 目标,通过最大化局部和全局表示之间的互信息,使得双分图中的节点具备全局相关性,实现了对双分图的全局特征建模,并在各种基准数据集上进行了评估,并与现有方法进行了比较。
Dec, 2020
本文提出了一种基于项目投影的共同聚类算法,以解决处理双向图时向量空间模型表现的问题。通过在聚类检索任务中测试,该算法能够产生平衡良好的聚类和相关项目,并导致高的检索得分。
Sep, 2021
本文研究无监督与半监督情境下,学习整个图的表示。通过最大化不同规模子结构(例如节点,边和三角形)的表示和图表示之间的互信息,提出了名为 InfoGraph 的图级表示学习方法。InfoGraph 优于现有的竞争基线。同时,我们还提出了一个名为 InfoGraph * 的扩展,主要用于半监督学习。
Jul, 2019
本文提出了一个新颖的概念,图互信息(Graphical Mutual Information,GMI),用于无监督地将图结构数据中的丰富信息提取到嵌入空间中进行表示学习,同时运用 GMI 开发了无监督学习模型并在节点分类和链接预测等任务上表现出明显的优越性。
Feb, 2020
本研究提出了一种用于图数据挖掘的无监督学习方法,称为 Graph InfoClust(GIC),该方法利用可微分 K 均值方法计算出聚类信息并最大化同一聚类节点之间的互信息,从而获得更多信息和节点相互作用,并在节点分类、链路预测和节点聚类等各种下游任务中明显优于现有方法。
Sep, 2020
利用信息最小化的对比学习模型 (InforMin-CL) 实现了无监督句子表示学习,通过最大化正实例之间的互信息并最小化其信息熵来保留有用信息和丢弃多余信息。实验结果表明,该模型在包括监督和无监督任务在内的十四个下游任务中取得了最先进的性能。
Sep, 2022
提出了一种基于 infomax 原理的框架,可实现对大规模神经群体进行无监督学习。该方法使用基于渐近的方法来对大规模神经群体的信息论下限进行计算,通过渐进性的不断往全局信息论最优解靠近的过程,可以获得一个很好的初始值。基于该初始值,提出了一个高效的算法来从输入数据集中学习特征表示,并且该方法适用于完备、过完备和欠完备情况下的基函数。和现有的方法相比,该算法在无监督表示学习的训练速度和鲁棒性方面都具有明显的优势,而且还可以轻松地扩展到用于训练深层结构网络的监督或无监督模型。
Nov, 2016