跨常识任务转移程序知识
Leap 是一个基于元学习的框架,通过在学习过程中跨任务间传递知识,从而在计算机视觉任务上优于竞争方法,且可以在涉及数百万梯度步骤的强化学习环境中实现跨学习过程的知识转移。
Dec, 2018
研究了手续性文本理解的挑战,发现外部知识注入和数据不足的问题,提出了一个多阶段训练的知识感知 KOALA 模型,最终在 ProPara 和 Recipes 数据集上达到了最先进的性能表现。
Sep, 2020
本文提出了一种数据高效的解决方案,将知识检索模块与大型语言模型相结合,利用代理指南中的显式指令构建对话系统,并通过半监督预训练方案进行训练,同时评估在行动状态跟踪和工作流发现两个对话任务中的表现,结果表明程序化知识增强提高了在低数据密度下的准确性。
Jun, 2023
通过 “模拟到真实” 的技术,本文提出通过合成数据生成程序与训练能够准确解释这些合成数据的模型,再利用学习到的句子嵌入来定义距离度量,从而实现将自然语言映射到合成数据集的支撑上,训练出只使用合成训练数据的自然语言处理模型,其在多个领域的表现已经与使用自然语言数据训练的最先进的模型相匹配或超越。
Apr, 2020
此研究旨在通过迁移学习方法以及基于语言模型的状态空间共同嵌入来提高服务机器人从之前学习中寻找相似方法,以解决家庭服务机器人学习新任务精度低的问题。实验结果表明,基于语义相似性从众多源任务中选择相似任务是非常有效的,并且对于避免遗忘问题可以通过更改更新策略来解决。
Jan, 2023
使用基于描述性语言的学习方法,研究设计了一个环境来测试智能体的泛化技能,并通过多个测试评估方案和测试集发现,在随机任务拆分的情况下,文本推理的智能体更适合应对这一挑战。
Mar, 2022
本论文提出了一种基于深度强化学习的混合模型与无模型集成的方法 LEAPS,通过对含有内在语义规律但视觉多样性的人造环境的实验表明其比不考虑语义内容的强基线更有效。
Sep, 2018
本文提出通过使用自然语言指令和行动轨迹演示来自动分解分层任务,以解决在稀疏奖励的强化学习设置中的复杂多任务问题,并证明人类演示有助于解决最复杂的任务,同时允许该模型再未见数据的情况下推广学习,从而使训练好的代理人具有可解释的行为。
Nov, 2020