HiNet:神经网络的分层分类
通过将图数据样本转换为编码树以及使用分层传递机制,提出了一种树内核和卷积网络来实现图分类,其时间复杂度低于其他图神经网络,同时验证表明其在性能和计算资源方面均优于其他方法。
Jun, 2022
本文提出了一种新的 Hierarchical INTerpretable 神经文本分类器 Hint,它可以自动生成按标签关联的话题的模型预测解释,实验结果表明 Hint 方法在文本分类方面不仅与现有的最先进的文本分类器相当,而且生成的解释比其他可解释的神经文本分类器更符合模型预测,并且更易于被人类理解。
Feb, 2022
基于 WordNet 类层次结构的机器学习方法提高了 ImageNet 和 NABirds 数据集的分类准确度,并在较短的训练时间内成功匹配了基线模型的细粒度识别性能。
Nov, 2018
提出一种基于张量运算在硬件加速器上进行高效分层分类的方法,通过将给定语义树节点上的分类得分和标签批次转换为其沿着树向下的所有祖先路径上得分和标签,从而将所有标签转换为其所有祖先路径上的标签,其测试结果为在包含 20 级深度的 117,659 个分类的 WordNet 3.0 的树上,仅占用固定的 0.04GB 内存,计算量很小。
Sep, 2022
该研究引入了一种新的专家生成方法,它通过将顺序处理通用低级特征与高级特征的并行和嵌套结合起来的新的分层分类网络拓扑结构,实现了动态降低任务和计算复杂度的能力。该方法在资源受限条件下能够选择只有任务相关类别的高级特征,可以显著减少推理成本,对于轻量级和可适应性的网络设计具有前瞻性意义。在动态推理方面,我们的方法可以排除高达 88.7% 的参数和 73.4% 的 GMAC 操作,与比较基准相比,在所评估的案例中,平均减少了 47.6% 的参数和 5.8% 的 GMAC 操作。
Mar, 2024
本文探讨了如何在图形分类中利用图卷积网络(graph convolutional networks)进行节点嵌入(node embeddings)、不可区分形式学习(representation learning)和不可区分形式学习(differentiable graph coarsening),并且没有牺牲稀疏性,为未来基于图形的神经网络研究指出了重要方向。
Nov, 2018
该论文提出了一个框架,在其中使用分层 softmax 来创建一个全局的分层分类器。该方法适用于任何具有类别的自然层次结构的分类任务。我们在四个文本分类数据集上展示了实证结果。在所有的数据集中,相比于在扁平分类器中使用的常规 softmax,分层 softmax 在宏 F1 和宏召回上有显著的改进。在四个数据集中的三个中,分层 softmax 实现了更高的微精确度和宏精确度。
Aug, 2023
提出了一种获得分层神经网络的分层模块化表示的方法,该方法使用层次聚类方法将训练网络应用于 Feature Vectors,以便根据它们与输入和输出维度值的相关性定义隐藏层单元之间的树状关系。
Oct, 2018
本文介绍了一种基于层次化视觉数据结构的图像分类方法,该方法利用层次聚类创建了可变长度的视觉树,从而更准确地进行分类。该方法在 ILSVRC2010 和 Caltech 256 基准数据集上获得了显著更好的分类准确率。
Sep, 2017