BriefGPT.xyz
Ask
alpha
关键词
multi-encoder models
搜索结果 - 4
ACL
上下文感知机器翻译的序列缩短
在此研究中,我们展示了一种特殊情况的多编码器架构,其中源句子的潜在表示被缓存并在下一步中被重复使用作为上下文,这在对比数据集上实现了更高的准确度,并且与单编码器和多编码器方法相比具有相可比的 BLEU 和 COMET 分数。此外,我们还研究
→
PDF
5 months ago
使用公共特征的私密学习
研究一类私有学习问题,其中数据是私有特征和公共特征的联接。针对多编码器模型中的公共特征,开发了新的算法以仅保护某些足够统计量,从而实现了线性回归的保证效用改进,并在两个标准的私有推荐基准上达到了最先进的水平,证明了适应私有 - 公共特征分离
→
PDF
8 months ago
MM
基于多编码器的文档级神经机器翻译中上下文编码的案例研究
针对多编码器模型在不同上下文下对代词翻译的影响,本文通过在三种上下文设置(前两个句子、随机两个句子和两者混合)上训练多编码器模型,并使用上下文感知的代词翻译测试集进行评估,结果表明即使上下文是随机的,模型在 ContraPro 测试集上表现
→
PDF
a year ago
ACL
分而治之:针对上下文感知多编码器翻译模型的有效预训练
本文介绍了多编码器模型在训练语境参数时的困难,并提出了预训练上下文参数的四种不同拆分方法,进而增加上下文训练信号,并缩短上下文片段,从而提高了上下文参数的学习效果。在 BLEU 和对比测试集的评估下,结果表明本方法在低资源和高资源设置下都能
→
PDF
3 years ago
Prev
Next