BriefGPT.xyz
大模型
Ask
alpha
关键词
comparative loss
搜索结果 - 2
跨模型比较损失函数用于提升语言理解神经元效用
本研究提出了一种基于跨模型比较损失的方法,通过提高神经元的效率和减少输入的噪声来优化自然语言理解(NLU)模型,对 14 个数据集进行了广泛实验,证明跨模型比较损失对于因具有少量参数或长输入而难以优化的模型尤为有效。
PDF
a year ago
ACL
提取和编辑:自监督神经机器翻译的备选方案
提出并实现了一种基于抽取 - 编辑方法的无监督神经机器翻译,与以往仅使用错误积累法的基准性方法相比,在多个语言对和领域(包括低资源语言)的实验中表现更加优异。
PDF
5 years ago
Prev
Next