PROPRES: 探索各种触发器和环境中的预设语的项目性
本文在构建议程推理和预设的诊断数据集后,评估了在 MultiNLI 训练的 BERT、InferSent 和 BOW NLI 模型学习进行实用推理的能力。结果表明,尽管 MultiNLI 中的很少数的偶合类型表示,但 BERT 可以绘制实用偶合,而 BOW 和 InferSent 则表现出较弱的实用推理证据。
Apr, 2020
通过与人类实验结果进行对比,使用先进的大型语言模型预测,本研究关注明确和嵌入的分明性推论以及常规数量意涵的三种推论,并发现模型结果与人类实验结果在这些推论的大幅差异以及精细差异方面基本一致。
May, 2024
本文研究了命题数据和关系数据之间微妙差别,指出在许多关系模型中,边缘概率取决于人口或领域的大小,将此与统计理论中的经典概率密度函数基本概念建立联系:Projectivity 意味着关系预测对领域大小的变化具有鲁棒性,讨论了许多常见 SRL 系统的 projectivity,找出了保证产生 projective 模型的语法片段,但语法条件是限制性的,这表明在 SRL 中难以实现 projectivity,应注意区分不同领域大小。
Jul, 2018
通过对最近的变形器模型应用因果干预技术分析了词义消歧问题上 “情境模型” 的表现,特别是注意头回路在隐含情境模型建立中发挥的作用及其通过不同路径对代词解析的引导方式进行比较。
Jun, 2023
该研究旨在利用 FrameNet 语料库来消歧及解释介词的意义,进而基于介词的行为(语义角色识别、语法和语义属性)构建完整的数据库,为自然语言处理应用提供更全面、细致的分析。
Apr, 2021
我们通过对大型语言模型的隐空间进行研究发现,先前的关于模型的 ' 知识 ' 或' 信念 ' 的研究方法可以基于其隐空间中的方向来构建探测器,而我们的实验结果表明这些探测器的预测可能与前面的(相关)句子有条件关联,并且这种信念方向可以影响推理过程中的真相判断和上下文信息的整合。
Apr, 2024
语言模型在其输入语境中容易受到偏见、阿谀奉承、后门等倾向的影响,解释语言模型的内部状态可以帮助监控和纠正不忠实的行为。本研究假设语言模型在一个潜在的世界模型中表示其输入语境,并通过 “命题探测器” 提取这个潜在的世界状态。
Jun, 2024
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
Oct, 2017
介绍了一个包含在线信息获取论坛上的自然分布条件失败的问答数据集 CREPE,其中 25%的问题包含虚假前提;通过实验表明现有的开放域问答模型可以适当地找到前提,但很难预测前提是否属实,CREPE 提供了研究野外问答的基准,并为更好地建模和深入研究任务提供了途径。
Nov, 2022