BriefGPT.xyz
Ask
alpha
关键词
domain transferring
搜索结果 - 1
COLING
MoPE:无监督会话状态跟踪的前缀专家混合模型
提议使用前缀专家混合(MoPE)建立不同领域中类似插槽之间的联系,从而增强零样本对话状态跟踪(DST)模型在未见领域中的迁移性能,实证结果表明 MoPE-DST 在 MultiWOZ2.1 上达到 57.13% 的联合目标精度和在 SGD
→
PDF
3 months ago
Prev
Next