提出一种新颖的基于逻辑的神经模型,该模型将可解释的逻辑子句集成到目标任务的推理过程中,以检测多模态误解信息,通过在神经表示中参数化符号逻辑元素来实现学习的有效性,并引入五个元预测以使我们的框架具有多样性。
May, 2023
本文分析社交媒体中多模态环境下的虚假信息与图片 / 视频利用的挑战和机会,探讨现存技术及其不足,旨在进一步提升多模态虚假信息检测的技术。
Mar, 2022
本文调查了自动化事实核查并提出了一个多模式事实核查的框架,其中包含针对多模态误传播的子任务。研究重点在于文字、图像、音频和视频四种在实际事实核查中普遍存在的模态。调查了基准和模型,并讨论了未来研究的局限性和有前途的方向。
使用半监督学习框架来解决极度类别不平衡的问题,并使用实际数据扩充少数类别,该方法在处理社交媒体中极不平衡的发布单元时比 SMOTE、ADASYN、GAN 等其他方法效果显著提高,尤其在相关的 Covid 数据上初步测试表明有效性。
Apr, 2023
本文提出了一种可解释的跨模态去上下文检测方法来辨别不匹配的内容和交叉模态的矛盾,可以帮助事实查核网站记录阐明批驳,实验表明该方法在保持准确率的同时能提供更多可解释的预测。
通过使用多任务可解释的神经模型进行自动化的事实检验,本研究讨论了社交媒体上快速传播的虚假信息,并探究了深层神经模型在预测时所关注的要素,以寻求与人类推理相媲美的推理水平。
Feb, 2024
本文提出了一种基于可信度评估的体系架构,用于建立分布式机器人网络协同实现误传信息检测,并且通过使用 Schema.org 扩展和 NLP 技术实现语义相似性和态度检测,有效地提高了可伸缩性、领域独立性、可组合性、可解释性和透明度,同时还在 Clef'18 CheckThat! Factuality 任务上取得了新的明显的效果。
Aug, 2020
该研究提出了一种可解释和在线的分类方法,结合无监督和有监督的机器学习方法,使用自然语言处理技术基于创建者、内容和上下文的特征,识别和解释社交媒体中的虚假新闻,并通过数据流处理提供实时的早期检测、隔离和解释,从而提高社交媒体内容的质量和可信度。
May, 2024
本研究提出了一个基于图像特征和集成学习算法的 MONITOR 框架,用于在社交网络中评估信息真实性,并在两个真实数据集上进行广泛实验,结果显示 MONITOR 优于现有的机器学习基线,并且集成模型显着提高了 MONITOR 的性能。
Jan, 2023
本文提出了一种基于标记时间点过程的灵活表示方式,开发了一种可扩展的在线算法 Curb 来选择应该何时对故事进行事实核查以有效地减少假新闻和误导性信息的传播。
Nov, 2017