使用不同结构和训练方法探索基于能量的语言模型在语音识别中的应用
本文探讨了基于序列级别的未标准化的能量模型应用于文本生成,通过在预训练的局部标准化语言模型的残差范围内工作,结合噪声对比估计来训练,同时利用 BERT 和 RoBERTa 等预先训练的双向上下文表示,结果表明在二个大型语言建模数据集上,残差 EBM 相对于局部标准化基线具有更低的困惑度,并且通过重要性抽样生成的效率比基线模型更高,并且在人类评估中具有更高的生成质量。
Apr, 2020
能量模型(EBM)是一种重要的概率模型,也被称为随机场和无向图模型。EBM 是非标准化的,与其他流行的自标准化概率模型(如隐马尔可夫模型(HMMs)、自回归模型、生成对抗网络(GANs)和变分自动编码器(VAEs))截然不同。近年来,由于在理论和算法方面取得了重大进展,EBM 不仅受到核心机器学习领域的越来越多的关注,而且还受到了语音、视觉、自然语言处理(NLP)等应用领域的关注。语音和语言的序列性质也带来了特殊的挑战,并需要与处理固定维度数据(如图像)有所不同的处理方法。因此,本文的目的是系统介绍能量基模型,包括算法进展和在语音和语言处理中的应用。首先,介绍了 EBM 的基础知识,包括经典模型、最近由神经网络参数化的模型、采样方法以及从经典学习算法到最先进算法的各种学习方法。然后,介绍了 EBM 在三种不同场景下的应用,即建模边际、条件和联合分布。1)用于语言建模的序列数据的 EBM 应用,其中主要关注的是序列本身的边际分布;2)用于建模给定观测序列条件分布的 EBM,在语音识别、序列标注和文本生成方面有应用;3)用于建模观测序列和目标序列的联合分布的 EBM 及其在半监督学习和校准自然语言理解方面的应用。
Mar, 2024
本文探讨在预训练的文本编码器(如 Roberta)的微调期间进行联合能量模型(EBM)训练,以提高模型的准确性,并通过噪声对比估计进行训练,同时引入掩码语言模型(MLM)目标来提高 NCE 训练的效果。
Jan, 2021
通过使用语言模型进行能量负荷预测,本文提出了一种新颖的方法,通过利用教导技术将能量消耗数据转化为描述性的句子,实现语言模型的微调,并采用自回归生成方法,能够对未来能量负荷消耗的各种时间段进行预测。通过对真实数据集的大量实验,我们证明了我们提出方法的有效性和准确性。结果表明,利用语言模型进行能量负荷预测有望提高能源效率,并促进能源系统的智能决策。
Oct, 2023
本文主要研究神经网络中的自然语言处理,通过将 BERT 知识蒸馏成单层 BiLSTM 及其同侧对应的句对任务,证明了浅层神经网络仍然可以在不使用架构变化、外部训练数据或其他输入特征的情况下,与 ELMo 相比获得可媲美的结果。
Mar, 2019
提出一种普遍的贝叶斯学习框架,利用三种方法模拟 LSTM-RNN 和 Transformer LMs 的模型参数、神经激活选择和隐藏输出表示的不确定性,使用神经结构搜索自动选择优化网络内部组件,并使用有效的推断方法来降低计算成本,并在 AMI 会议转录和 LRS2 超叠话音频道的语音识别任务中实验验证,相对于基线 LSTM-RNN 和 Transformer LMs,在困惑度和字错误率方面均取得了一致的性能提升。
Aug, 2022
这篇论文描述了如何使用基于能量的模型(EBMs)通过噪声对比估计训练,并通过 Langevin Markov Chain Monte-Carlo(MCMC)进行采样,从而扩展了非自回归模型在语音合成中的应用。在 LJSpeech 数据集上的实验证明,该方法在 Tacotron 2 上取得了一定改进。
Oct, 2023
介绍了一种基于能量的填空模型 Electric,用于文本表示学习,通过噪声对比估计算法进行训练。Electric 在下游任务表现优秀,特别是在对文本进行可能性评分方面表现出较高的效果,同时清晰地解析了 ELECTRA 预训练期间所学习的内容。
Dec, 2020
该研究旨在调查大型语言模型与建筑能源模型软件的创新整合,重点关注 ChatGPT 与 EnergyPlus 的融合。文献综述表明,大型语言模型在工程建模中应用日益增长,但在建筑能源模型中的应用研究有限。通过三个案例研究,证明了大型语言模型在自动化和优化建筑能源模型任务方面的潜力,并强调了人工智能在推进可持续建筑实践和能源效率方面的关键作用。研究结果建议未来人工智能研究采用跨学科的方法,并对其他专门工程建模领域有着重要影响。
Feb, 2024