本论文提出了一种多模态蕴含分类器来确定图像的语句,以及开发了一种通用可调节学习速率策略来教授一个检索模型区分这些蕴含的语句和其他负样本。在实验中,我们手动注释了一个蕴含更正的图像文本检索数据集用于评估。结果表明,所提出的蕴含分类器达到了约 78% 的准确度,并持续提高了图像文本检索基线的性能。
Aug, 2022
本文提出了一种新的基于阈值的语义文本表示方法,并结合机器学习算法应用语义和词汇特征对文本 - 假设对进行分类,该技术有效地丰富了文本的语义信息,在文字蕴涵分类任务中在意义理解方面的表现明显优于已知方法
Oct, 2022
本文研究了文本蕴涵中的语义关系 —— 通过可能世界来分析前提和假说之间的关系,同时结合图像进行多模态的分析,结果表明文本和视觉信息相结合可以更好地进行文本蕴涵,但当前多模态模型在 “接地” 方面还不够优化。
Jun, 2018
本文提出了一种采用文本蕴含来找到共享常识知识图谱节点之间的隐式蕴含关系的方法,以有效地增加相同概念类中节点之间连接的子图密度,从而提高 CSKG 完成任务的性能。
Feb, 2024
本文中,我们描述了几种针对不同社区的刻板印象,这些社区存在于受欢迎的句子表示模型(包括预训练的下个句子预测和对比句子表示模型)中。通过比较基于文本相似性的强预训练模型与学习语言逻辑的文本蕴涵模型,我们得出结论:与显式去偏见流程相比,使用文本蕴涵显式逻辑学习可以显著减少偏见并提高社区的识别。
Mar, 2023
本文提出了一个用于验证索赔的管线方法,在文档检索中使用了一种新的实体链接方法,并引入了两个 Enhanced LSTM (ESIM) 的扩展来对索取的事实进行排名并对索赔进行分类,方法得分第三。
Sep, 2018
我们提出研究答案的蕴含关系,以识别更具信息量和更一般化的系统答案,从而更接近人类判断,无需学习。我们提出的蕴含关系评估可通过量化答案之间的推断差距来分配奖励或部分分数,实现对答案正确性的细致排序,其 AUC 比目前的方法更高。
May, 2024
本文探讨如何通过 Few-shot 学习和文本蕴含来实现通用的 NLP 任务解决方案,并且说明文本蕴含可以应用于多种 Downstream NLP 任务,用于解决数据稀缺的情况。
Oct, 2020
本文提出了一种新的蕴含形式,即在依赖弧的级别上对其进行分解,以便更好地检测文本生成模型中的事实不一致性。实验证明,基于依赖弧的蕴含模型可以更好地识别重新表述和摘要中的事实不一致性,并在定位错误部分方面具有优势。
本文介绍了一种使用外部结构化知识库填补科学知识差距的模型,将标准神经模型与知识查找模块相结合,在使用科学知识库和文本先验信息验证子事实后,NSnet 模型在 SciTail 数据集上比基准模型性能提高了 5%。
Aug, 2018