ACLMay, 2023

可解释的多模态逻辑推理误信息检测

TL;DR提出一种新颖的基于逻辑的神经模型,该模型将可解释的逻辑子句集成到目标任务的推理过程中,以检测多模态误解信息,通过在神经表示中参数化符号逻辑元素来实现学习的有效性,并引入五个元预测以使我们的框架具有多样性。