Jan, 2023

跨模型比较损失函数用于提升语言理解神经元效用

TL;DR本研究提出了一种基于跨模型比较损失的方法,通过提高神经元的效率和减少输入的噪声来优化自然语言理解(NLU)模型,对 14 个数据集进行了广泛实验,证明跨模型比较损失对于因具有少量参数或长输入而难以优化的模型尤为有效。