May, 2024
在开放式文本世界中进行少样本任务迁移的专家混合方法
A Mixture-of-Experts Approach to Few-Shot Task Transfer in Open-Ended Text Worlds
Christopher Z. Cui, Xiangyu Peng, Mark O. Riedl
TL;DR多任务学习中混合专家模型与注意力机制结合的研究表明,代理能够在开放式环境中通过重用先前任务的知识并快速学习新任务,同时在零样本和少样本学习中表现出更高的奖励获得和采样效率。