- 论大型语言模型在词汇蕴涵识别中的局限性
通过使用不同的提示策略和零 / 少次调优设置,我们研究了八个大型语言模型在识别动词之间的词汇蕴涵关系方面的能力,结果揭示了这些模型在适度表现上可以处理词汇蕴涵识别任务,虽然在不同条件下的效果有所不同,同时,利用少次调优可以提高模型的性能,然 - EMNLP从维基百科分类中挖掘自然语言推理知识
使用自然标注的维基百科类别层次结构构建的 428,899 个短语对构成的 WikiNLI 资源,通过对 BERT 和 RoBERTa 进行预训练和模型迁移,证明可以最大限度地提高模型在自然语言推理和词汇蕴含方面的表现并在其他语言中表现良好。
- EMNLP神经自然语言推断模型部分嵌入了词汇蕴含和否定理论
本研究通过四种方法评估自然语言推理 (NLI) 模型是否可以学习词汇蕴涵和否定之间的组合交互作用,并提出了一个新的自然数据集 MoNLI,其中集中了词汇蕴涵和否定的相关内容,通过对 MoNLI 的 Fine-tuning 得到的模型相较于通 - ACL使用有监督方向相似度网络评分词汇蕴涵
我们提出了监督方向相似网络(SDSN),这是一种用于在通用词嵌入之上学习特定任务转换函数的新型神经结构。实验表明,在打分分级词汇包含上具有优异的表现,并且使 HyperLex 数据集的最新成果提高了近 25%。
- 将乘法特征整合入用于词汇语义蕴含的监督式分布式方法中
通过整合乘性特征来提高受监督的分布式方法在词汇暗示方面的性能,我们提供了不同分类器和评估设置的广泛评估,并建议适合的评估设置,消除了先前存在的偏见。
- ACL为词汇蕴涵专门化的词向量
该论文提出了一种新的后处理方法 LEAR(词汇蕴涵吸引 - 排斥),将任何输入的词向量空间转换为重视词汇蕴涵关系(LE)的不对称关系,通过将外部语言约束(例如 WordNet 链接)注入到初始向量空间中,LE 特化过程将真正的下位词 - 上 - 利用蕴涵的分布式语义学学习上下位词的词嵌入
该研究提出了一种基于向量空间的框架来对词汇包容性建模的分布语义模型,利用伪短语中邻近的两个词向量提出了一种隐向量,并探究了模拟词作为证据或词作为后验分布的优缺点。实验表明,所得到的词嵌入模型优于之前预测词之间下义词关系的最佳结果。
- EMNLP关系诸如上位词:通过分布向量识别和利用海斯特模式以用于语义蕴涵
本文研究使用分布式向量预测词汇蕴涵的任务,提出基于 Hearst patterns 的特征提取方法,并结合文献中已有的优秀模型,成功预测多个数据集的结果。
- 组合分布语义的分级蕴涵
本文研究了分类组合分布语义学中的词汇包含问题,使用密度矩阵和量子计算中的部分知识的范畴语义思想提出了一种新的语言模型,并引入了一种新颖而强健的分级量化概念,能够有效地计算概念之间的包含关系。
- 三种识别词汇蕴涵的方法实验
本文介绍了三种词汇蕴含的识别方法,并比较了它们的性能。与其他方法相比,新方法(相似性差异)在某些数据集上表现显著更好,说明词汇蕴含研究和语义关系分类研究之间建立联系是有益的。