BriefGPT.xyz
Apr, 2024
MoPE:无监督会话状态跟踪的前缀专家混合模型
MoPE: Mixture of Prefix Experts for Zero-Shot Dialogue State Tracking
HTML
PDF
Tianwen Tang, Tong Zhu, Haodong Liu, Yin Bai, Jia Cheng...
TL;DR
提议使用前缀专家混合(MoPE)建立不同领域中类似插槽之间的联系,从而增强零样本对话状态跟踪(DST)模型在未见领域中的迁移性能,实证结果表明MoPE-DST在MultiWOZ2.1上达到57.13%的联合目标精度和在SGD上达到55.40%的精度。
Abstract
zero-shot dialogue state tracking
(
dst
) transfers knowledge to unseen domains, reducing the cost of annotating new datasets. Previous zero-shot
d
→