TimeLMs: 从 Twitter 构建历时语言模型
该研究论文主要研究机器学习中的时序转变对社交媒体的影响,通过提出一种统一的评估方案,发现语言模型在不同时间设置下会出现性能下降,尤其在命名实体识别、仇恨言论检测等任务中。而在主题分类和情感分类等任务中,性能下降不明显,同时发现对测试期进行连续预训练并不能提高语言模型的时序适应能力。
May, 2024
介绍了一个用于探讨语言模型在知识更新方面的诊断数据集,提出了一种将文本与时间戳共同建模的简单技术来改善语言模型在训练时期已知事实的记忆和对未来时间段内未知事实的预测。还展示了通过时态语境训练的语言模型可以高效 “刷新”,而无需从头开始重新训练。
Jun, 2021
该研究提出一种基于循环语言建模的神经模型,通过考虑作者和时间向量状态来捕捉作者社区的语言扩散趋势,从而超越了多个基于时间和非时间的语言基线,并学习了随时间变化的有意义的作者表示。
Sep, 2019
对利用大型语言模型(LLMs)进行时间序列分析的现有方法进行了系统概述,总结了基于 LLM 的时间序列分析的一般流程,并探讨了未来的研究机会。
Feb, 2024
本文重点研究语言使用的时空变化对 NLP 系统的影响,尤其是在社交媒体、自然灾害和人为灾害等危机事件中,短时间内词的使用频率和含义可能会发生快速变化,为此,作者提出了一种基于领域自适应的时态适应方法,通过实验证明了该方法的有效性和适用性,同时也指出目前研究方法存在的局限性。
Apr, 2021
该综述论文详细探讨了利用大型语言模型进行时间序列分析的各种方法,包括直接提示、时间序列量化、对齐技术、利用视觉作为桥梁机制以及与其他工具的结合,同时提供了现有的多模态时间序列和文本数据集的综合概述,并分析了该新兴领域的挑战和未来机会。
Feb, 2024
本文介绍了 XLM-T 模型,用于在 Twitter 中训练和评估多语言语言模型,并提供了新的强大的多语言模型基线和一组统一的不同语言的情感分析 Twitter 数据集和针对它们进行的 XLM-T 模型微调。
Apr, 2021
本研究探讨了在自然语言处理领域中理解文本的时间背景的方法,并介绍了一种新型语言模型 BiTimeBERT 2.0,该模型通过预训练在一个时间新闻文章集合上,利用三种创新的预训练目标以有效地获得时间感知的语言表示,从而在与时间相关的任务中实现改进的性能。实验结果显示,BiTimeBERT 2.0 在多种依赖时间的下游自然语言处理任务和应用中显著优于 BERT 和其他现有的预训练模型。
Jun, 2024
通过使用连续快照之间的差异作为训练和评估数据,我们介绍了一个终身学习基准测试 ——TemporalWiki,旨在评估语言模型在频繁更新的知识库,如维基百科,中获取和保留知识的能力,并发现通过继续学习方法使用 diff 数据进行训练可以通过少量的训练数据安全地更新 LM 中的事实知识。
Apr, 2022
大型语言模型在时间序列预测方面具有明显的优势和限制,尤其在具备明确模式和趋势的数据上,LLMs 表现出色,但在缺乏周期性的数据集上面临挑战。研究发现,引入外部知识和采用自然语言改写有利于提升 LLMs 在时间序列预测中的预测性能。
Feb, 2024