本文提出了 SIMAP,这是一种新颖的深度学习模型中的一层,旨在增强输出的可解释性。SIMAP 层是基于支撑集和单纯映射(在拓扑学中用于在保持结构连通性的同时转换形状的函数)的可解释神经网络 SMNN 的增强版本。该方法的新颖之处有两个方面:首先,SIMAP 层与其他深度学习架构配合使用,作为替代经典密集最终层的可解释层;其次,与 SMNN 不同,支撑集基于固定的最大单纯形,通过基于矩阵乘法的算法高效计算出重心细分。
Mar, 2024
该研究介绍了单纯神经网络(SNNs),作为图神经网络在特殊拓扑空间,即单纯复合体上的一般化形式。这种新的神经网络结构,能够处理包括向量场或 n 重合作网络等更多元的数据,也定义了适当的卷积方式,并在合著关系复合体的数据丢失方面进行测试。
Oct, 2020
本文探讨了建立基于单纯复形数据的神经网络体系结构。通过定义三种理想属性,即排列等变性,定向等变性和单纯感知性,我们提出了一种简单的卷积架构,用于轨迹预测问题,并展示了它在合成和实际数据集上推广性的提高。
Feb, 2021
本研究提出了一种新型的 Simplicial Attention Networks (SAT) 以及一种签名注意机制,旨在解决目前 Simplicial Neural Networks (SNNs) 在计算效率和适应新结构方面的缺陷,并在图像和轨迹分类任务中表现优异。
Apr, 2022
本文提出了一种基于合成数据集的神经网络解释方法的量化基准评估,结果表明我们的合成数据集足以挑战大多数基准方法,而 TreeShap、mRMR 和 LassoNet 是最佳表现的 FS(特征选择)方法,并且当评估少数非线性交绉的预测特征时,神经网络基础的 FS 和解释方法仍然不可靠。
Apr, 2023
通过添加稀疏加性子网络、投影追踪以及平滑函数逼近等结构约束,本文提出了一种可解释的神经网络模型,具有良好的预测性能与模型解释性,同时导出了所提模型的必要和充分可识别条件,采用一种基于 backpropagation 算法计算导数和 Cayley 变换维护投影正交性的改进型 mini-batch 梯度下降方法同时估计多个参数,并在六个不同场景下通过与其他多种方法的比较显示所提出的 xNN 模型保持了追求高预测准确率的灵活性的同时实现了改善的可解释性,并展示了一个真实数据应用案例。
Jan, 2019
该论文提出了一种基于 Simplicial Message Passing 框架来处理分子结构的方法,其中包括用于量子化学性质预测的深度学习体系结构,并比传统的 MPNN 表现更好。
Jun, 2023
在 Simplicial 2 - 复合体中,我们开发了一个卷积神经网络层,以处理具有图形或超图结构的数据,这提供了图形结构和超图结构之间的中间地带。
Dec, 2020
通过线性和非线性混合机制对降维复合体进行数据增强,提出一种凸聚类混合方法来处理多个降维复合体之间的数据驱动关系,实现了对现有数据的合成插值,并在简单复合体分类的合成和实际数据集上进行了方法验证。
Sep, 2023
本文提出了一种应用于非欧式几何的 SOM 算法,其拓扑相关扩展改善了传统 SOM 算法,可用于维度约简、聚类或在大数据中寻找相似性。
Sep, 2021