从理想语言模型中提取蕴涵语义
理论上,LMs 通过其训练数据中的共现模式推导文本的语义信息;本研究调查其理论是否可用于从神经 LMs 中解码蕴含关系,结果显示与他们类似的测试可以在多个数据集和 LMs 上解码语义蕴含关系,这表明 LMs 隐含地建模了语义方面以预测句子共现模式的语义影响。
Feb, 2024
本文提出了两个模型,即语义链模型和话语信息模型,并探究了四种实现方式。通过在语义自然语言处理任务中进行实验验证,证明我们的语义语言模型(SemLM)可以提高共指消解和话语分析等性能。
Jun, 2016
本文考察了大型语言模型对语言习得中的概率关系和上下文敏感性建模的能力,并针对基于强度先验条件的语境下的 pragmatism utterances 进行了阈值估计实验。结果表明该方法成功地推导出了一些复杂 pragmatic utterances 相关的人类类似信息分布,但对于否定的组成较为困难。
May, 2023
本文研究了在没有辅助的情况下,自然语言处理中的语言模型是否能够理解文本的内涵。研究发现,当文本满足语义透明性时,assertions 可以使系统模拟语义关系,并保留原本等价的关系。但对于某些语言类别而言,表达在不同上下文中可以有不同的含义,这时模拟会变得难以计算。最后,作者提出了这种模拟在计算机语言和自然语言之间的差异,并探讨了其在语义模态和其他语义关系中的应用。总之,未建立在基础语言上的模型在理解语义方面存在本质上的局限。
Apr, 2021
利用大型预处理语言模型作为少型语义解析器,将输入 paraphrase 成类似英语的控制子语言,通过很少的数据和代码快速批量生成语义解析器,表现出令人惊讶的有效性,远超过基线方法。
Apr, 2021
本文研究了分类组合分布语义学中的词汇包含问题,使用密度矩阵和量子计算中的部分知识的范畴语义思想提出了一种新的语言模型,并引入了一种新颖而强健的分级量化概念,能够有效地计算概念之间的包含关系。
Jan, 2016
本文研究了文本蕴涵中的语义关系 —— 通过可能世界来分析前提和假说之间的关系,同时结合图像进行多模态的分析,结果表明文本和视觉信息相结合可以更好地进行文本蕴涵,但当前多模态模型在 “接地” 方面还不够优化。
Jun, 2018
本文中,我们描述了几种针对不同社区的刻板印象,这些社区存在于受欢迎的句子表示模型(包括预训练的下个句子预测和对比句子表示模型)中。通过比较基于文本相似性的强预训练模型与学习语言逻辑的文本蕴涵模型,我们得出结论:与显式去偏见流程相比,使用文本蕴涵显式逻辑学习可以显著减少偏见并提高社区的识别。
Mar, 2023
本文研究大语言模型在自然语言处理中的局限性,特别是无法学习一些基本语义属性,如语义蕴涵和一致性,以及不能学习超越 Borel 层次结构的概念,这对语言模型的语言理解能力产生了严重限制。
Jun, 2023
通过与人类实验结果进行对比,使用先进的大型语言模型预测,本研究关注明确和嵌入的分明性推论以及常规数量意涵的三种推论,并发现模型结果与人类实验结果在这些推论的大幅差异以及精细差异方面基本一致。
May, 2024