潜在情境下的语言建模
本文研究事件涵义的模型,通过探讨其对物理属性的理解能力来预测实体状态变化。作者发现,传统的大型语言模型无法很好地理解这方面的知识;而通过适当的提示方式,它们的性能可以得到极大的提升,尤其是对于未知的属性或数据信息不足的情况。
Nov, 2022
本论文研究了三个方面的工作:如何提高预训练模型在 NLP 任务中的性能,在维基百科和释义上利用语言结构以提取知识,以及定制文本资源以建立挑战性的评估任务。
Jul, 2022
本文提出了一种新的满足性辅助语言建模方法,利用自然语言处理模型生成任务的声明性规范,使用现成的自动定理证明器进行推理并验证答案的正确性,在解决需要更复杂的规划与搜索任务时比基于编程范式的模型更加有效。
May, 2023
研究了代理在现实环境中的一个常见问题,即环境对其行为的响应可能是不确定的,通过噪声观察到。通过适当的提示 LLMs 以零 - shot 方式可以被形式化地理解为在文本空间中形成对潜在状态的点估计。在自主 UI 代理的背景下,我们展示了以这种方式使用 LLMs 在推断潜在状态各方面(如已执行(与已命令)的操作和任务进展)上的准确性超过 76%。使用公共和内部基准测试以及三种推理方法(零 - shot,CoT-SC 和 ReAct),我们表明,明确估计和推理潜在状态的 LLM 驱动代理比那些不这样做的代理能够成功完成多达 1.6 倍的任务。
May, 2024
研究表明,虽然预训练语言模型对于自然语言推理方面的知识有比较好的编码能力,但其对于本体论的推断需要更多的背景知识,而且在给定少量样本的情况下能够有效地进行推断。
Feb, 2023
利用潜变量模型及半监督学习的方法实现对于对话系统中的结构化信念状态的分类,且在三份基准数据集上表现优秀,减少了对于标注数据的需求。
Sep, 2020
本文提出了一种利用填空式提示来生成标签信号以进行弱监督文本分类的方法,并使用潜变量模型来学习将生成的单词与预定义类别相关联的单词分布学习器和文档分类器,以实现无需标注数据。通过在三个数据集上的评估,表明我们的方法可以比基线方法提高 2%,4%和 3%。
May, 2022
该论文介绍了一种利用大型语言模型(LLM)进行文本监督语义分割的新方法,该方法通过生成更准确的类别表示来提供多样化的分割结果,并通过合并不同的子类描述符的分割图确保对测试图像的更全面的表示。经过三个标准基准的全面实验,我们的方法比传统的文本监督语义分割方法表现出更好的性能。
Mar, 2024
本文对大型语言模型在逻辑推理方面进行了全面评估,提出了一种基于选择和推理的框架,可以在不进行微调的情况下改进性能,并伴随着因果自然语言推理过程的答案。
May, 2022