改进词表示学习,我们提出了一种概率先验,它可以无缝地与词嵌入模型集成。不同于先前的方法,词嵌入被看作是一种概率生成模型,它使我们能够对词表示学习施加先验进行正则化。所提出的先验不仅增强了嵌入向量的表示,还提高了模型的鲁棒性和稳定性。该先验的结构简单而有效,可以很容易地实现并灵活地插入到大多数现有的词嵌入模型中。广泛的实验证明了所提出的方法在各种任务上改善了词表示。
Sep, 2023
本研究提出了一种名为 LDP-GE 的隐私保护图嵌入框架,通过局部差分隐私机制对节点数据进行模糊处理,并采用个性化 PageRank 作为节点表示的相似度度量,理论分析和实验证明 LDP-GE 在节点分类和链接预测任务中具有良好的隐私和效用平衡,并显著优于现有方法。
Oct, 2023
通过将形态学信息融合到词向量中,构建了一个统一的概率框架,其中词嵌入是一个潜变量,并以形态学信息提供先验分布。此方法改进了内在词相似性评估,也在词性标注下游任务中提高了性能。
Aug, 2016
本文讨论了使用位置编码技术来改进图神经网络在节点集合任务中预测的问题,并提出了一种被称为 PEG 的类 GNN 层,它使用单独的通道更新原始节点特征和位置特征。PEG 同时对原始节点特征施加排列等变性质,并对位置特征施加 O(p)等变性质,其中 p 是使用的位置特征的维度。在 8 个真实世界网络上的广泛链接预测实验表明,PEG 在泛化和可伸缩性方面具有优势。
Mar, 2022
本文提出了一种 PELE 方法,通过聚合出现在大规模语料库中的实体的输出表示,能够将相关语料库中的实体知识灵活有效地传输到具有不同架构的预训练语言模型中,只需要 0.2%-5% 的预计算能够在域自适应场景中从域外语料库获取知识,实验表明该方法比以前的知识增强预训练语言模型更为优秀。
Feb, 2022
本文提出了动态词嵌入的概率框架,通过分析三个历史文本集合,证明了动态词嵌入提供比传统词嵌入更好地适应和更好地捕捉语言变化的有趣模式。
Mar, 2017
本研究探讨使用图神经网络 (GNN) 表示来增强预训练语言模型 (PLMs) 的上下文表示,用于从长文档中提取关键词。我们构建了文本的共现图,并使用在边预测任务上训练的图卷积网络 (GCN) 进行嵌入。我们提出了一种增强序列标记体系结构来增强 PLM 嵌入与图嵌入。在基准数据集上评估,我们证明了使用图嵌入增强 PLM 在长文档上的性能优于现有最先进模型,并在所有数据集上显示了 F1 分数的显著改进。我们的研究突显了 GNN 表示的潜力,作为改善从长文档中提取关键词时 PLM 性能的补充方法。
May, 2023
该研究提出了一种基于概率的语言模型,可以跟踪个别单词随时间的语义演变,并通过嵌入空间中的潜在轨迹表示单词和上下文。研究发现,该动态模型推断的单词嵌入轨迹更易解释,并且具有更高的预测性可能性。
Feb, 2017
本研究提出基于预训练语言模型的动态情境词向量,能够以语言和非语言环境为依据来表征单词的含义变化,并在四个英文数据集上做出定性和定量分析,以彰显其应用潜力。
Oct, 2020
本研究通过对窗口大小 T 趋近于无限大的情形下,对 Qiu 等人的目标函数进行简化,证明了其将 DeepWalk 与谱图嵌入联系在一起的结论,并表明非线性性质是现有方法的核心进展。
May, 2020