关键词speech representation models
搜索结果 - 3
- 用于反欺骗检测的预训练语音模型中隐藏嵌入的关注性合并
本文研究了 WavLM 模型在反欺诈任务中的多层行为,并提出了一种注意力融合方法来利用分层隐藏嵌入,结果表明微调 WavLM 能够在 ASVspoof 2019LA、2021LA 和 2021DF 的评估集上分别达到 0.65%、3.50% - 基于联合语音 - 文本模型的小样本语音理解
通过使用预训练的语音 - 文本模型,本研究发现只需 1 小时标注的语音数据,即可与仅使用 10 倍数据的仅语音预训练模型在口语理解任务(情感分析和命名实体识别)上取得可比较的性能;同时发现底层的语音 - 文本模型作为任务自主层面,在共享空间 - 自监督语音表示模型的分层分析
本研究使用一套分析工具研究一款较新的波形自编码预训练语音表征模型,发现其中间表征向量所包含的声学信息和语言信息内容,并研究了自动语音识别(ASR)微调对这些观察结果产生的影响,为此提出了一个修改方案,并证明其在低资源设置中提高了单词错误率的