提升嗓音唤醒技术 —— 普通话运动失能言语数据集发布与定制系统设计
本文介绍了中国香港中文大学对自动语音识别技术中有关于不正常发音语音的识别问题展开的最新研究成果,利用了新型建模技术和 Bayesian model adaptation 等方法,最终取得了乌阿里语(UASpeech)失语症语音库上最低的 25.21% 字误率(WER),并在多方面相对于 2018 年的同类系统均有较大提升
Jan, 2022
台湾在 2020 年启动了 VoiceBanking 项目,旨在为肌萎缩性侧索硬化症患者提供个性化的普通话语音合成系统。本文报道了 VoiceBanking 项目中语料库设计、录制、数据整理和修正,以及开发的个性化普通话语音合成系统的评估。
Aug, 2023
本文旨在通过使用多说话人端到端 TTS 合成系统为 DNN-HMM 建立训练提供合成语音,其中添加语音障碍严重性等控制参数以继续改进多语音说话人端到端 TTS 系统,实验表明:使用合成的语音,对 DNN-HMM ASR 进行训练可以将识别速率提高 12.2%,且添加严重性级别和暂停插入控制参数可以将错误率降低 6.5%。
Jan, 2022
通过引入 Perceiver-Prompt 方法,利用 P-Tuning 对 Whisper 大规模模型进行微调,并通过可训练的 Perceiver 从可变长度输入中生成固定长度的说话人提示,以提高对中国发音障碍语音的模型识别性能。我们的实验结果表明,Perceiver-Prompt 在中国发音障碍语音数据集中获得了持续的识别性能改善,CER 相对减少高达 13.04%。
Jun, 2024
该研究提出了一种新的口吃性语音合成方法,用于自动语音识别 (ASR) 训练数据的增强,并通过主观评估证明了合成语音与真实口吃性语音在口吃感和相似性方面的相似性,特别是对于严重口吃者。
Aug, 2023
本研究利用多领域广泛覆盖的香港粤语语料库 (MDCC),采用多数据集学习技术提高 Fairseq S2T Transformer 自动语音识别模型在香港粤语方言中的有效性。
Jan, 2022
本文旨在通过多阶段增强方法来改进阿拉伯语言障碍患者的自动语音识别性能,具体包括使用基于信号的方法生成阿拉伯语言障碍患者的语音,并通过对英语语言障碍患者语音数据进行训练以进行多语言扩充,以及在不同的语音障碍程度下进行微调和文本纠正策略。通过这些方法,本文在阿拉伯语言障碍患者的语音数据集上实现了 18% 的词错误率和 17.2% 的字符错误率,相比只针对健康数据训练的基础模型,实现了 81.8% 的 WER 提升,并在真实的英文语言障碍患者语音数据集上实现了 124% 的 WER 提升。
Jun, 2023
本文介绍了英语翻译,适用于部分通话家庭普通话数据和香港科技大学普通话电话语音数据的语音翻译任务。研究表明,将通用翻译模型微调为普通话 - 英语对话电话语音训练集可以使目标领域 BLEU 提高 8 个百分点以上,突显了配对训练数据的重要性。
Mar, 2024
本研究提出了一种针对 TTS 语音合成任务中的发音错误检测和校正的高精度、适用于 PDA 的发音学习框架,同时还提出了一种基于动态时间规整技术和度量学习的发音错误检测模型 DTW-SiameseNet。结果表明,与基于音素和音频的基线相比,我们的方法平均提高了~6% 的发音准确率,并且此方法不受语言和隐私问题的影响。
Mar, 2023
使用自监督模型结合多任务学习的新颖自动程度评估方法在不充分的数据下对 Dysarthric 发音进行评估,该方法使用 Wav2vec 2.0 XLS-R 以及手工制作的声学特征和机器学习分类器, 在 Korean dysarthric speech QoLT 数据库上相较传统基线方法提高了 1.25% 的 F1 值,并且相较于没有 ASR 头的模型提高了 10.61% 的相对百分比增长。我们还通过分析潜在表示和正则化效应来展示多任务学习如何影响重度分类表现。
Oct, 2022