Dec, 2022
利用多任务预训练技术,提升基础自然语言解释能力
Harnessing the Power of Multi-Task Pretraining for Ground-Truth Level
Natural Language Explanations
TL;DR通过应用大规模多任务生成Transformer模型的最新进展,我们提出了一种新的VL-NLE方法,其提供人类更容易理解的解释,并优于当前技术水平。同时,我们还探讨了高质量NLE生成的伦理影响和其他最近VL-NLE研究中存在的问题。