基于图的上下文感知模型:理解在线对话
本研究提出了一种基于图形遍历技术的新颖的基于神经网络的架构,即 GraphNLI,其使用图形遍历技术以原则的方式捕获讨论现场的更广泛背景,在预测回复的极性与其回复的帖子之间的情感关系方面表现出优异的性能。
Feb, 2022
该研究提出了一种基于图形的关注语义上下文建模(GASCOM)框架,用于在线对话理解,并利用此框架重新审视极性预测和仇恨言论检测两个研究领域,显著提高了两个任务的性能,并增加了可解释性。
Oct, 2023
本研究提出了一种系统来预测社交媒体平台上有害讨论,该解决方案使用上下文深度语言模型,并提出将最先发帖后的所有对话分析整合到最先发帖中,同时支持适应未来评论的分析。此外,将探讨针对特定社区的仇恨言论的分析是否会导致更有效的检测。我们从各种社区的 333,487 个 Reddit 讨论评估了我们的方法,发现社区特定建模将性能提高了两倍,并且捕捉更广泛的讨论背景的模型相对于有限背景的模型精度提高了 28%(最仇恨的内容提高了 35%)
Jan, 2023
本文提出了一个包含上下文信息的仇恨言论数据集并提出了两种模型:一个基于逻辑回归模型的模型和一个具有上下文学习组件的神经网络模型。实验表明,这两种模型在 F1 得分方面优于强基线约 3%到 4%,结合这两种模型可进一步提高 7%的 F1 得分。
Oct, 2017
本文介绍了一种新的方法,使用图形结构双向 LSTM 对社交媒体上的串行讨论进行建模,该方法代表了分层和时间会话结构。在 Reddit 讨论的评论受欢迎程度预测任务中,实验表明,所提出的模型比节点独立架构在不同的输入特征集上表现更好。分析表明,该模型在整个讨论过程中都具有优势,可以提高早期和晚期的检测效果。此外,使用带有双向树状状态更新的语言提示有助于识别具有争议性的评论。
Apr, 2017
通过建立一个包含语料库中与输入内容相关的类语境环境节点的有向异构图,将 GNN-LM 扩展到传统的神经语言模型中(LM),并基于该图构建 GNN 网络来提高模型的泛化能力,有效地实现了对参考上下文的直接访问,展示了它在不同数据集上优于现有方法的结果(例如在 WikiText-103 上的最佳困惑度约为 14.8)。
Oct, 2021
本研究实验证明在 BERT 模型中加入基于图形的上下文信息会提高模型性能,并在 Pubmed 数据集上取得了 8.51%到 7.96% 的错误率减少,同时仅增加 1.6%的参数。
May, 2023
本篇论文介绍了一种新颖的响应生成系统,它可以在大量非结构化的 Twitter 会话上进行端到端的训练。该系统使用神经网络架构来解决在将上下文信息集成到经典统计模型中出现的稀疏性问题,从而允许系统考虑以前的对话话语。我们的动态上下文生成模型相对于基于上下文和非上下文敏感的机器翻译和信息检索基准具有一致的提高。
Jun, 2015
研究分析了基于混合图神经网络和 transformer 模型的社交语境对于发现假新闻的作用,并且在 PolitiFact 和 Gossipcop 数据集上获得了 0.91 和 0.93 的 f1 得分,表现优于基线模型。
Jul, 2022