音频字幕转换器
本文提出一种使用编码器 - 解码器架构的音频标题系统,并引入自上游音频相关任务或大规模领域内数据集的转移学习来缓解数据稀缺性带来的问题。通过强化学习将评估指标纳入模型优化中,可以解决由 “教师强制” 训练策略引起的 “曝光偏差” 和评估指标与损失函数之间的不匹配问题。这种方法在 DCASE 2021 Task 6 中排名第三,并进行了消融研究来研究所提出系统中的每个要素对最终性能的贡献。结果表明,提出的技术显着提高了评估指标的得分,但强化学习可能对生成的标题质量产生不利影响。
Aug, 2021
本文提出了一种基于语义和音频信息相结合的自动音频字幕生成模型,使用预训练的 ResNet38 来初始化预训练关键字编码器,并使用 LSTM 解码器和语义和音频注意力模块来进行多模态注意力解码,实验证明该模型在 Clotho 数据集上达到了最先进的性能。
Oct, 2021
本研究利用预训练语言模型 BERT 作为音频字幕解码器,结合预训练的音频模型 PANNs 作为编码器,实现了在 AudioCaps 数据集上与现有音频字幕方法具有竞争力的结果。
Mar, 2022
该论文提出了一种端到端的语音识别模型,使用 Transformer 编码器可用于流媒体语音识别系统;该模型在 LibriSpeech 数据集上进行了实验结果,结果表明限制 Transformer 层中自注意力左侧上下文对于流式解码是可行的,并展示了我们的全注意力模型在 LibriSpeech 基准测试上的准确性优于现有技术水平。
Feb, 2020
我们提出了两种新模型 AutoCap 和 GenAu 来解决由于数据稀缺和标题质量不足造成的环境声音和效果生成问题,AutoCap 利用音频的元数据显著提高了标题的质量,而 GenAu 则通过使用新数据集进行训练,在生成的音频质量上取得了显著的改善。
Jun, 2024
通过使用自我注意力来模拟时间上下文信息,基于编码器 - 解码器的序列到序列模型已经在端到端自动语音识别领域取得了最先进的成果。本研究提出了一种基于 Transformer 的流式 ASR 系统,其可以在每个发音单词之后快速生成输出,因此可以应用于更广泛的 ASR 场景中。我们采用了一种时间限制的自注意力机制来实现流式语音序列的建模,同时通过触发式关注机制来优化编码器 - 解码器的关注机制。在 LibriSpeech 的测试数据上,我们的方案分别达到了 2.8% 和 7.2% 的词错误率,这是我们所知道的这个任务的最好的流式端到端 ASR 成果。
Jan, 2020
我们的项目旨在通过开发结合卷积神经网络(CNN)和编码 - 解码模型的自动图像字幕架构来解决图像字幕的挑战。我们还进行了性能比较,研究了多种预训练 CNN 模型的性能变化,并探索了频率正则化技术在压缩 “AlexNet” 和 “EfficientNetB0” 模型方面的整合,旨在在更节省资源的同时保持模型的有效性。
Apr, 2024