圣杯 2.0:从自然语言到约束模型
约束文本生成问题是一个困难的任务,本文提出了一种以约束为先的框架来解决这个问题,并通过约束编程方法将语言属性与其他经典约束相结合,实现了成功生成高度约束文本的效果。该方法在一个新的高度约束的文本生成问题上展示了潜力。
Jun, 2024
研究评估了使用数据增强、后处理和代码生成模型 CodeT5 合成数学程序的效果,通过应用线性规划规则来评分和纠正光束,该方法基于自然语言规范实现自动化建模。实验结果表明,在使用这些增强方法后,CodeT5 基础版本的执行准确率为 0.73,明显优于 ChatGPT 的零 - shot 执行准确率 0.41 和 Codex 的 0.36。
Mar, 2023
本研究使用文本为基础的方法提升了知识图谱补全的效果,并通过引入约束型提示来改善大型语言模型生成的文本质量,该方法在低资源计算条件下展现了有效的推理能力,并在 WN18RR 和 FB15K237 数据集上超越了之前的结果,为将大型语言模型应用于知识图谱补全任务提供了新的研究方向。
Oct, 2023
通过使用概率分类模型指导交互式约束获取,以生成更有前景的查询,本研究通过收缩约束获取与机器学习的联系来缓解查询数量的限制。在不同分类器的实验评估中,本方法远超过现有技术,减少了收敛所需的查询数量最多达 72%。
Dec, 2023
在这项工作中,我们旨在将整数规划求解器整合到神经网络架构中作为能够学习成本项和约束项的层,以便从原始数据中提取特征并使用最先进的整数规划求解器解决适当的(经过学习的)组合问题。该结果的端到端可训练架构以综合性能分析在合成数据上演示,且在竞争性计算机视觉关键点匹配基准上有展示其潜力。
May, 2021
本文通过在逻辑单词谜题上比较使用 ChatGPT 和 GPT-4 直接解决问题和提取问题文本事实并使用定理证明器解决两种方法,并得出后者是正确的方法来研究了利用大语言模型解决自然语言问题需要一些非平凡的推理。
Apr, 2023
使用自然语言作为一种新的编程语言来描述任务过程,让其易于被人类和 LMMs 理解,并进一步借助 Learning to Program (LP) 方法通过学习来自训练集中的自然语言程序,优化复杂任务的问题解决能力,该方法在 AMPS 和数学两个数据集上的有效性得到验证,证明其性能超过直接零样本测试表现 18.3%。
Apr, 2023