本研究尝试使用深度神经网络建立生成模型,以生成既有和声和旋律,并且足以通过人类作曲的音乐,并利用端到端学习和生成的方法。
Jun, 2016
通过基于预测编码的神经网络模型研究人类音乐感知,模型经过大量 Classic 音乐和流行旋律训练后,发现预测误差依赖于音符,音高间隔和时间上下文等信息,提示可用预测编码神经网络来表征影响音乐感知的特征和主题。
Oct, 2022
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024
我们提出了将扩散模型与生成对抗网络相结合的方法,旨在解决算法音乐生成中的情感控制和计算成本的问题。通过训练变分自编码器得到情感标签的符号音乐数据集的嵌入,并用其来训练扩散模型,我们成功地控制了扩散模型以生成具有特定情感的符号音乐,同时大幅提升了计算效率。
Oct, 2023
本文介绍了一个基于 Deep Learning 的生成模型,可用于自动根据所需情感生成音乐,并且可以用于标记音乐的情感分类,经实验证明,该模型的预测准确率较高。
Mar, 2021
音乐生成和表达情感之间的关系对于深度学习和自然语言处理的发展具有重要意义,并且有潜力在创意产业中提供强大的工具来推动和生成新的音乐作品。
Nov, 2023
我们展示了如何从扩散模型中进行条件生成,以解决音乐制作中的各种现实任务,包括音乐音频的延续、修复和再生,不同音乐轨道之间的平滑过渡以及将样式特征传递给现有音频片段。
应用一种新的深度学习方法来生成原始音频文件,并使用 1D U-Net 的渐进蒸馏扩散模型实现无条件音乐生成,并比较不同扩散参数的价值和实现。
Jul, 2023
通过近似计算生成新数据分布的深度生成模型,特别是扩散模型,在重构过程中使用大型数据集来训练模型,以图像帧为单位推进时间,同时认识到文化在记录中标记,将扩散系统视为未来计算过程,与过去息息相关,并针对视频制作作为信号处理器生成序列,回溯十年前的算法和多轨制作方法,揭示了当代合成方法在动态图像中的实际预测失败。
Aug, 2023
本文引入了 DeepJ 这一端到端的生成模型,能够在特定的作曲家风格混合条件下进行音乐创作;该模型包括学习音乐风格和音乐动力学等多种创新方法,通过人类评价表明该模型在风格迁移方面优于 Biaxial LSTM 方法。
Jan, 2018