标签嵌入和明确定义中间表示改善问题描述的自动生成
本文介绍了我们团队在 Natural Language for Optimization (NL4Opt) NeurIPS 2022 比赛中的获奖方案,分别采用了命名实体识别和生成模型等方法,成功解决了对应的子任务,并在比赛中获得了不错的成绩。
Feb, 2023
本研究使用机器学习将线性规划的数学问题描述转化成相应的数学公式,利用输入中的命名实体和增强输入突出这些实体,并在 NL4Opt 竞赛中取得了最高准确率和第一名的成绩。
Dec, 2022
介绍了一种用于优化问题建模的增强智能系统,该系统使用控制生成技术生成优化问题的自动建议,并提供用户界面进行编辑和验证,该系统经过新创建的数据集的测试表明其有效性。
Sep, 2022
本文提出了一种高效的基于关联规则的方法,将实体元组嵌入映射到近似布尔空间中,通过从 WordNet 中进行的关联规则挖掘来鼓励关系嵌入上的部分排序,以实现自动化知识库的构建。通过引入少量的常识规则,相较于矩阵分解基准方法,实现平均精度的 2 个百分点的提高,并观察到运行时间几乎没有增加。
Jun, 2016
该研究探索了将神经网络应用于数学信息检索任务的潜力,并设计了两种学习向量表示公式符号的方法,最终提出了一个基于公式嵌入模型的信息检索方法,初步实验结果表明在数学语言表达和信息检索任务中应用公式嵌入模型具有很好的潜力。
Jul, 2017
本研究介绍了一种基于 Universal Transformer 体系结构的语义解析方法,可以将基本数学证明转化为 Coq 互动定理证明器中的等效形式,以及将装饰有 Hoare 三元组的简单命令式代码翻译成 Coq 中的形式验证证明。通过人工和人工写作证明的有限领域的实验表明,这些模型对于训练期间未看到的中间长度和自然语言变化具有很好的泛化能力。
Jan, 2023
在这篇论文中,我们探索了一种低资源替代方法,即基于词嵌入的文档检索模型,发现它在与信息检索任务上经过微调的大型 Transformer 模型相比具有竞争力。我们的结果表明,将 TF-IDF(传统的关键词匹配方法)与浅层嵌入模型简单组合,提供了一种低成本的方法,使其在 3 个数据集上与复杂的神经排序模型的性能相媲美。此外,添加 TF-IDF 度量改进了这些任务上大规模微调模型的性能。
Aug, 2023