链式开放数据查询日志分析的端到端解决方案
现在,企业正在追求链接开放数据(LOD)以提高其附加值,但它们忽视了其 SPARQL 查询日志。如果经过良好的整理,这些日志可以成为决策者的资产。然而,简单和直接地使用这些日志是很冒险的,因为它们的出处和质量都是非常可疑的。为了以可信赖的方式使用这些日志,用户需要深入了解整个 LOD 环境,并提供工具来整理这些日志。在本文中,我们提出了一个交互式和直观的基于信任的工具,在利用这些日志之前可以用来整理这些 LOD 日志。这个工具旨在支持我们在我们之前的工作 Lanasri 等人 [2020] 中提出的方法。
May, 2024
本文尝试借助异构链接数据和语义 Web 技术,提出了一种新的方案来丰富 Wikidata 知识库,并使用 DBpedia 和 Getty 图像库作为实现案例,结果表明该方法可为 Wikidata 注入数百万条高质量的数据。
Jul, 2022
提出了一种基于 Trie 数据结构和机器学习的日志异常检测框架 SeaLog,实验结果表明 SeaLog 相比基线方法实现更高的准确性和效率,并且可以借助 ChatGPT 等大型语言模型进行异常日志数据的快速反馈和验证。
Jun, 2023
本文提出了一种利用数据库 SQL 查询日志信息来提高现有自然语言接口到数据库的性能的方法,并通过实验评估证明了该方法的有效性,最终准确度提高了 138%。
Jan, 2019
使用拓扑数据分析和谱嵌入方法进行 Windows 日志中的异常检测,这种方法可以比标准的事件计数嵌入方法更好地分类异常日志,并在可能成为异常检测可解释框架的方法方面讨论了其潜在应用。
Apr, 2022
提出了一种名为 Logic Diffusion(LoD)的插件模块,采用关系扩散和随机游走子逻辑采样的方式,辅以梯度自适应训练机制和新型损失函数,在训练或测试集中面对嘈杂数据时能够实现强大的逻辑扩散,与现有知识图谱推理模型相比,LoD 可以提高推理的鲁棒性。
Jun, 2023
开放领域问答(ODQA)作为信息系统中的关键研究领域已经崛起。现有方法采用两种主要范式来收集证据:(1)“先检索然后阅读” 范式从外部语料库中检索相关文档;(2)“先生成然后阅读” 范式使用大型语言模型(LLMs)生成相关文档。然而,两者都无法完全满足证据的多方面需求。因此,本文提出了 LLMQA,一种通用框架,将 ODQA 过程分为三个基本步骤:查询扩展、文档选择和答案生成,结合了基于检索和基于生成的证据的优势。由于 LLMs 展示了在各种任务中表现出的出色能力,我们在框架中指导 LLMs 担任多个角色,作为生成器、重新排序器和评估器,集成它们在 ODQA 过程中的协作。此外,我们引入了一种新颖的提示优化算法,以改进角色扮演提示,引导 LLMs 生成更高质量的证据和答案。在广泛使用的基准测试(NQ、WebQ 和 TriviaQA)上进行的大量实验结果表明,LLMQA 在答案准确性和证据质量方面达到了最佳表现,展示了其推进 ODQA 研究和应用的潜力。
Mar, 2024
本篇研究分析了六个公开可用的日志数据集,关注异常的表现形式和简单的检测技术,结果显示大多数异常与顺序表现无直接联系,不需要先进的检测技术即可实现对这些数据集的高检测率。
Sep, 2023