关键词multi-task representation learning
搜索结果 - 5
- 强化学习中主动多任务学习的力量
通过多任务表示学习的方式,我们将人类反馈强化学习 (RLHF) 问题建模为一种上下文二分问题,并假设存在一种共同线性表示。我们证明了考虑任务相关性,并为具有不同任务相关性的源任务分配不同样本数量可以降低多任务 RLHF 中的样本复杂度。此外 - 双线性强盗问题中的纯探索多任务表示学习
在本研究中,我们研究了在双线性赌博机中进行纯探索问题的多任务表示学习。我们提出了一种名为 GOBLIN 的算法,利用实验设计方法来优化学习全局表示的样本分配,并最小化在个体任务中识别最佳臂对所需的样本数量。据我们所知,这是第一项对具有共享表 - ACL探索任务可转移性在大规模多任务学习中的作用
本研究旨在阐明多任务表示学习中任务规模和相关性的影响。研究表明,如果预先知道目标任务,则在较小的一组相关任务上进行训练在降低计算成本的同时也能与大规模多任务训练相竞争。
- ECCV通过多任务表示学习理论改进少样本学习
本文考虑多任务表示学习的框架,总结最近的研究进展,指出基于梯度和基于度量的算法在实践中的根本差异并通过新的基于光谱的正则项改进元学习方法进行实验,以实现 few-shot 分类任务。
- ACL序列标注的多任务领域自适应
本文提出了一种支持多任务领域自适应的神经网络框架,并应用于中文分词和命名实体识别两个任务的领域自适应。实验结果表明,该框架比独立的领域自适应方法在两个任务上都获得更好的结果,并在社交媒体领域达到了最先进的水平。