ACLJun, 2023

深度模型压缩也有助于模型捕捉歧义

TL;DR本研究提出了一种基于深度模型压缩的新方法,解决了自然语言理解中标记不确定性的问题,并发现了在低层中更合理表示的关系,这有助于减小模型的规模并改善可用性。