利用自相似性作为注意力机制生成具有结构的音乐
提出了一种使用修改后的相对注意力机制来设计变形金刚神经网络的算法,用于音乐作曲、演奏和生成任务,并在 JSB Chorales 和 Piano-e-Competition 数据集上获得了最先进的结果。
Sep, 2018
本研究提出了一种基于深度学习的轻量级神经音频合成器 SING,其可以通过单一解码器从近 1000 种乐器中生成音符,并且通过新的损失函数将生成的和目标波形的对数谱距离最小化,提高了音质的感知品质。与基于 WaveNet 的最新自动编码器相比,在训练和推理方面分别快 32 倍和快 2500 倍。
Oct, 2018
使用基于 transformer 的自注意力架构来学习顺序音乐推荐中的隐式会话级信息,同时提出一项对比学习任务来纳入负面反馈,以促进正面命中和惩罚负面命中,并通过实验证明这种方法相比忽略负面用户反馈的基准架构具有一致的性能提升。
Sep, 2023
提出了一种基于 Transformer 模型的序列到序列歌曲合成器,使用自身注意力机制结合初始的音长模型来准确合成出作曲家想要的声音,相比于基于老师强制训练的自回归模型,具有更快的推理速度和更好的生成效果。
Oct, 2019
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024
本文提出了一种新颖的增强记忆自注意力机制,用于 Transformer 语音识别中的流式应用,相对于现有的可流式 Transformer 方法,减小了计算量并在 Librispeech 基准测试中实现了超过 15% 的相对误差降低。
May, 2020