基于模板的时间自适应学习动态语境化单词嵌入
该研究提出了一种基于概率的语言模型,可以跟踪个别单词随时间的语义演变,并通过嵌入空间中的潜在轨迹表示单词和上下文。研究发现,该动态模型推断的单词嵌入轨迹更易解释,并且具有更高的预测性可能性。
Feb, 2017
该研究通过发展一种动态统计模型学习时态感知的词向量表示,并实现了 “对齐问题” 的解决,从而可以可靠地捕捉时间上的语言演变,并在语义准确性和对齐质量方面持续优于现有的时间嵌入方法。
Mar, 2017
本文提出了一种新的方法,通过从 BERT 嵌入生成特定时间的单词表示来利用上下文嵌入进行历时语义变化检测。我们的实验结果表明,该方法在特定领域的 LiverpoolFC 语料库中具有与当前最先进技术相当的性能,无需在大型语料库上进行任何耗时的领域自适应。我们的结果表明该方法可以成功地用于检测短期年度语义漂移,并在多语言环境中展示了有前途的结果。
Dec, 2019
本研究探讨了在自然语言处理领域中理解文本的时间背景的方法,并介绍了一种新型语言模型 BiTimeBERT 2.0,该模型通过预训练在一个时间新闻文章集合上,利用三种创新的预训练目标以有效地获得时间感知的语言表示,从而在与时间相关的任务中实现改进的性能。实验结果显示,BiTimeBERT 2.0 在多种依赖时间的下游自然语言处理任务和应用中显著优于 BERT 和其他现有的预训练模型。
Jun, 2024
本文介绍了一种基于时间的上下文语言模型 TempoBERT,通过添加时间信息和进行特定的时间掩码来适应语言的动态性,并在不同的数据集上进行了实验,证明利用时间掩码可以在语义变化检测和句子时间预测任务中得到好的效果。
Oct, 2021
本文提出了一种名为 ctx-DocNADE 的新颖的神经自回归主题模型,将 TM 和 LM 的两种学习词出现意义的学习范例组合在一起,通过嵌入词静态信息的输入,显著改善了小语料库和短文本中的词 - 主题映射,并在不同领域的 6 个长文本和 8 个短文本数据集上展示出了优越的泛化能力、可解释性和适用性。
Oct, 2018
本研究提出了一种为动态网络生成图层嵌入的新方法,包括构建多层图和使用改进的随机游走生成节点的时间上下文,再利用一个深度学习模型生成图层嵌入,并在公开数据集上进行了评估和比较。
Jun, 2023
该研究采用动态主题模型和词嵌入模型组合设计了一种动态嵌入主题模型,通过向每个时间步长中的嵌入表示赋值主题,该模型能够学习到平滑的主题轨迹,并在三个不同的语料库上发现,在文档完成任务中,该模型优于动态 LDA,而且比 LDA 更易于训练。
Jul, 2019