- 离线多任务转移强化学习与表示惩罚
我们研究了离线强化学习中的表示转移问题,提出了一种算法来计算学习表示的点态不确定性度量,并通过扩展数据的数据依赖上界证明了针对目标任务的学习策略的次优性。我们的算法利用源任务的集体探索来解决现有离线算法在一些点上覆盖不足的问题,并在需要完全 - 双线性强盗问题中的纯探索多任务表示学习
在本研究中,我们研究了在双线性赌博机中进行纯探索问题的多任务表示学习。我们提出了一种名为 GOBLIN 的算法,利用实验设计方法来优化学习全局表示的样本分配,并最小化在个体任务中识别最佳臂对所需的样本数量。据我们所知,这是第一项对具有共享表 - BiSinger: 双语歌唱声音合成
设计了一个双语 SVS 系统用于英语和汉语普通话的人声合成,并通过使用 CMU 词典与映射规则实现中文和英语歌声之间的共享表示,融合了单语歌唱数据集和已建立的歌声转换技术来生成双语歌声,并探索了双语语音数据的潜在用途。通过实验证实,我们的语 - 通过下采样声学表示进行端到端语音识别的纯文本领域自适应
本研究旨在通过引入一个连续的整合 - 发火 (CIF) 模块,从而实现将语音和文本这两种形式的信息映射到共享表示空间,以提高自动语音识别 (ASR) 在新领域中的性能。通过将一个具有一致语音标记长度的 CIF 模块与基于文本的 ASR 模型 - 使用 CycleGAN 和跨域损失改进半监督端到端自动语音识别
本研究提出了一种结合 CycleGAN 和域间损失的新方法,用于半监督的端到端自动语音识别,利用这种方法可以在无配对的语音文本输入上进行训练,并取得了明显的性能提升。
- 记忆数据集:为神经网络提炼可寻址的记忆
提出一种基于数据集精简的算法,通过共享数据集的压缩表示生成训练样本以迅速重新训练神经网络,进而实现数据集的总体压缩和连续学习。
- 使用规则表示控制神经网络
本文提出了一种新的深度学习训练方法,将规则集成到深度学习中,使规则的优势在推理过程中是可控的。DeepCTRL 不需要重新训练以适应规则强度 - 在推理过程中,用户可以根据所需的准确率和规则验证比来调整它。在实际应用中,DeepCTRL 可 - ICLR通过元学习识别哈密顿系统的物理规律
使用基于数据的元学习算法可以识别控制由相同物理定律支配的哈密顿体系的物理规律,无需进行数学假设。在多种物理系统上验证我们的方法可以识别哈密顿共享表达式。
- 强化学习通用化中价值与策略的解耦
提出了一种新的深度强化学习算法 IDAAC,采用不变性分离的方式,分别优化策略和价值函数,通过辅助损失使表示对环境的任务无关属性具有不变性,该算法在 Procgen 基准测试中表现出很好的泛化性能,并在 DeepMind 控制任务中超过了流 - 迁移学习理论:任务多样性的重要性
本文通过学习不同任务之间共享的特征表示来实现迁移学习,并提出了对于不同任务的样本复杂性的新的理论保证,讨论了任务的多样性和高斯复杂度的新颖链式规则,并应用于几个现今流行的模型。
- 通过互信息估计学习解缠表示
本文研究学习分离表现形式的问题,提出一种基于互信息估计的模型,用于捕捉数据的共享和独占组件,并强制实现表现形式分离,在共享或独占部分基础上实现图像分类和图像检索,结果表明相对于基于 VAE/GAN 方法的最先进模型,本文提出的模型表现更加出 - EMNLP共享表示和结构预测的联合事件和时间关系抽取
本文提出一种联合事件 - 时间关系抽取模型,借助于共享表示学习和结构化预测来避免传统管道系统中的错误传递,并在两个基准数据集上将端到端 F1 分别提高了 10%和 6.8%。
- 跨模态场景网络
本文研究如何学习跨模态场景表示并提出了新的跨模态场景数据集以及正则化方法,实现了共享的、跨模态的表示,实验表明我们的场景表示对于跨模态检索至关重要,同时我们的可视化结果表明,共享表示中的单元倾向于独立于模态激活在一致的概念上。
- 基于循环多任务神经网络的集成感知
探讨了深度神经网络能否学习到通用的图像表示,并提出一种名为 MultiNet 的新模型,在共享特征的基础上,通过在共同的表征中相互交互来整合各个任务的解决方案,实现了在标准基准测试中提高各个任务性能的目的。
- 共享表示的分布式多任务学习
研究了在多个机器学习一个未知的低维子空间中具有共享表示的分布式多任务学习问题,通过高效通信的方法来利用共享结构。
- 多任务强化学习中的共享表示学习
本文探讨了多任务强化学习中一种范例,即在一个固定的环境中进行一系列任务的学习,介绍了一种共享结构模型,在状态 - 动作值空间中联合学习优化价值函数,从而提高数据效率并获得更健壮、更具潜力的可传递表征。