二值化知识图谱嵌入
本文提出了一族新的方法,将知识图谱嵌入到实值张量中,使用这些基于张量的嵌入可以更加准确地预测新事实。通过实证评估,证明了这些张量分解模型的有效性和可靠性。
Feb, 2019
使用张量分解和量化相结合的方法,通过交替方向乘数法来压缩神经网络的权重,实现在保持预测质量的同时减少参数和计算量,并展示出与现有后训练量化方法相比的竞争性结果和高灵活性的优势。
Aug, 2023
该研究探讨了使用 Canonical Tensor Decomposition 解决 Knowledge Base Completion 问题的局限性,并提出了一种基于 tensor nuclear p-norms 的新型正则化方法,结合这两种方法可以超过现有的同类算法,在多个数据集上表现得更好。
Jun, 2018
本文介绍了一种基于复杂嵌入的统计关系学习方法,在实现表达能力和时间 / 空间复杂度之间权衡的同时,探索了这种复杂嵌入和酉对角化之间的联系,提出的嵌入方法仅涉及共轭内积,具有良好的可扩展性和高准确率。
Feb, 2017
本文研究了 CANDECOMP/PARAFAC(CP)张量分解在多维数据降维中的应用,提出了一种基于随机算法的简单但强大的算法来计算大规模张量的近似 CP 分解,并通过多个实验结果证明了该算法的性能。
Mar, 2017
TuckER 是一种基于 Tucker 分解的二元张量表示的线性模型,在标准的链接预测数据集上表现优于其他最先进的模型,并作为更复杂模型的强有力基准,是一种完全表达模型,可以作为先前引入的一些线性模型的特例来看待。
Jan, 2019
考虑如何分解具有缺失值的数据集,以捕捉数据的潜在结构并可能重建缺失值。我们开发了一种名为 CP-WOPT 的算法,该算法使用一种一阶优化方法来解决加权最小二乘问题,并通过大量的数值实验验证了该算法的性能良好,能够成功分解噪声数据及缺失数据高达 99%的张量,同时适用于稀疏大规模数据。
May, 2010
介绍了一种基于张量分解的时间知识图谱补全方法 (Time-LowFER),并提出了一种模型无关的、更广义的时间特征表示方法,实验表明该方法的表现与当前先进的语义匹配模型相当或更好。
Apr, 2022
本文提出了一种基于层次概率模型的 CP 张量分解方法,通过整合多个潜在因子和适当的超参数来提供完全贝叶斯处理,以实现自动排序确定,同时提供对缺失条目的预测分布。
Jan, 2014
我们介绍了一种新的神经网络模型压缩方法 TQCompressor,并使用改进的张量分解技术解决预训练语言模型在 NLP 任务中计算和存储需求方面的挑战。我们通过置换增强 Kronecker 分解,成功降低了模型表示能力的损失。我们将该方法应用于 GPT-2$_{small}$,得到了 TQCompressedGPT-2 模型。与 GPT-2$_{small}$ 的 124 百万参数相比,TQCompressedGPT-2 模型仅有 81 百万参数。我们公开提供了 TQCompressedGPT-2 模型。我们通过多步知识蒸馏的训练策略进一步提升了 TQCompressedGPT-2 的性能,仅使用 3.1%的 OpenWebText 语料库。在比较评估中,TQCompressedGPT-2 优于 DistilGPT-2 和 KnGPT-2,标志着在资源受限环境中高效有效地部署模型的进展。
Jan, 2024