AnomalyLLM: 动态图中使用大型语言模型进行少样本异常边缘检测
利用大型语言模型(LLMs)来检测表格异常,并展示了预训练的 LLMs 在零样本批量级异常检测方面的效果,同时提出了一种简单但有效的数据生成过程和端到端微调策略来对齐 LLMs 检测真实异常的潜力。
Jun, 2024
通过知识蒸馏,以大型语言模型 (LLM) 为基础训练的教师网络来训练学生网络以检测时间序列异常,利用原型信号和合成异常样本的策略,AnomalyLLM 在 15 个数据集中表现出最先进的性能,在 UCR 数据集中提高了至少 14.5% 的准确性。
Jan, 2024
通过系统性文献综述,全面考察了在预测和异常检测中使用大规模语言模型(LLMs)的应用,突出了现有研究的现状、固有挑战和未来发展方向。LLMs 已经在解析和分析大规模数据集以识别模式、预测未来事件和检测异常行为等各个领域展现了巨大潜力。然而,该综述指出了一些关键挑战,如依赖于大量历史数据集、在不同背景中的泛化问题、模型产生幻觉的现象、模型知识范围的局限性以及需要大量计算资源等,这些挑战阻碍了它们更广泛的应用和有效性。通过详细分析,本综述讨论了克服这些障碍的潜在解决方案和策略,如整合多模态数据,学习方法的进步以及强调模型可解释性和计算效率。此外,该综述还概述了可能影响 LLMs 在这些领域中发展的关键趋势,包括朝向实时处理、可持续建模实践的重要性和跨学科合作的价值。最后,该综述强调了 LLMs 对预测和异常检测可能产生的转变性影响,同时强调了持续创新、道德考虑和实际解决方案的需求以实现其全部潜力。
Feb, 2024
利用大型语言模型对金融数据中的异常检测进行研究,通过测试三个预训练通用句子转换模型和五个优化过的机器学习模型,发现大型语言模型对异常检测是有价值的,特别是在金融账目条目中处理特征稀疏性方面的有效性。
Jun, 2024
本文提出了一种名为 DynLLM 的新框架,利用大型语言模型解决动态图推荐任务,通过生成基于丰富文本特征的用户多维度画像,并利用时间图嵌入和精细化的关注机制来融合用户画像和动态图嵌入,以实现对持续时间动态图的无缝集成和改进,实验证实了 DynLLM 在电子商务领域的卓越性能。
May, 2024
本文提出了一种名为 Laplacian Anomaly Detection (LAD) 的方法,用于动态图中的变化点检测,并通过两个滑动窗口显式地建模短期和长期依赖关系。实验结果表明,该方法在动态网络中可以更有效地识别异常时间点。
Jul, 2020
连续时间动态图中的异常检测是一个新兴领域,本文通过结构化分析以及图表示学习,对这些图中的异常连接进行识别。通过引入精细分类法并将类型化的异常注入图中,我们的方法可以在时间、结构和上下文三个方面产生具有一致模式的连续时间动态图,从而使得时间图方法能够学习到链接异常检测任务。在合成和真实数据集上进行的综合实验通过验证我们的异常和正常图形的分类法、生成过程以及对链接预测方法的异常检测适应方法。我们的研究结果进一步揭示了不同学习方法在捕捉图形正常性的不同方面和检测不同类型异常方面的优势,为未来的研究提供了机遇。
May, 2024
在本文中,我们通过提出评估大型语言模型在动态图中的时空理解能力的 LLM4DyG 基准,第一次系统地评估了 LLMs 在动态图中的时空信息理解能力,并通过广泛的实验分析了不同的数据生成器、数据统计、提示技术和 LLMs 对模型性能的影响。我们提出了一种名为 Disentangled Spatial-Temporal Thoughts (DST2) 的方法,用于增强 LLMs 在动态图中的时空理解能力。我们的主要观察是:1)LLMs 在动态图中具有初步的时空理解能力,2)随着图大小和密度的增加,动态图任务对 LLMs 的难度增加,但对时间跨度和数据生成机制不敏感,3)我们提出的 DST2 提示方法可以帮助提高 LLMs 在动态图中的时空理解能力。此外,数据和代码将在发布时开源。
Oct, 2023
LLMAD 是一种新的时间序列异常检测方法,采用大语言模型(LLMs)提供准确而可解释的结果,通过在上下文中的检测来检索正面和负面的相似时间序列片段,并采用 Anomaly Detection Chain-of-Thought(AnoCoT)方法模仿专家逻辑进行决策过程,为用户决策提供解释。
May, 2024
该文介绍了一种利用大型语言模型和图神经网络相结合的无标签节点分类方法 LLM-GNN,在小部分节点上利用语言模型进行注释,然后使用图神经网络对其余大部分节点进行预测,通过开发注释质量启发式和利用语言模型的置信度得分来选择节点,从而提高图神经网络的性能,实验证明了 LLM-GNN 的有效性。
Oct, 2023