BriefGPT.xyz
Ask
alpha
关键词
self-attention weights
搜索结果 - 2
ReSeTOX:重新学习注意力权重以减轻机器翻译中的毒性
提出了一种名为 ReSeTOX 的方法,用于处理神经机器翻译(NMT)生成的输出中存在有害词的问题,目的是在无需重新训练的情况下减少有害语言的引入。经过实验结果表明,ReSeTOX 在保持平均翻译质量为 99.5%的情况下,在 164 种语
→
PDF
a year ago
AAAI
Block-Skim: Transformer 的高效问答
通过 Block-Skim 的方法,即从 Transformer 模型的内部权重中识别出需要进一步处理和可以尽早舍弃的上下文信息,从而明显提高了 QA 模型的准确性并实现了 3 倍加速。
PDF
3 years ago
Prev
Next