ICMLFeb, 2022

OFA: 通过一个简单的序列到序列学习框架统一架构、任务和模态

TL;DR本文提出一种支持任务综合性的任务不可知和模态不可知框架 OFA,用于统一多模态预训练。OFA 在仅使用 2000 万个公开可用的图像 - 文本对进行预训练情况下,在一系列交叉模态任务上实现了新的 SOTAs,并在单模态任务上取得了高竞争性能。同时,OFA 还可以有效地转移到看不见的任务和领域中。