通过阅读少量样例来学习书写风格化的中文字符
在本文中,我们介绍了一个基于笔画的自编码器方法,用于对汉字的形态结构进行建模和预测,在零样本识别和增强汉字表示方面,取得了比现有方法更好的实验效果。
Jul, 2022
本文介绍了利用变分自编码器(VAE)来实现语音合成模型的端到端学习,以无监督的方式学习发音风格的潜在表示。通过 VAE 学习到的风格表示具有解缠、缩放和组合等良好的特性,使得风格控制变得容易。通过先通过 VAE 的识别网络推断出风格表示,然后将其馈入 TTS 网络来引导语音合成中的风格,可以在这个框架中实现风格转移。为了避免在训练过程中 KL 散度崩溃,采用了多种技术。最后,所提出的模型在风格控制上表现良好,并在风格转移的 ABX 偏好测试中优于全局风格令牌(GST)模型。
Dec, 2018
提出了一种新的神经网络结构来解决单张图像类比的问题,我们的网络是一个修改后的变分自编码器(VAE),支持有监督的训练和结构相似性目标的输出评估,通过对于 62 个字体从单个样例字母的生成展示出比现有技术更优异的结果。
Mar, 2016
本文提出了一种基于深度神经网络的模型,将标准字体图像直接生成书法风格的图像,并构建了包含各种书法风格的大规模基准数据集。实验结果表明,该方法的效果优于其它基线方法。
Jun, 2017
通过将图形模型与深度学习架构组合,我们学习具有两种框架优势的生成模型。我们提出了学习 SVAE 的新算法,并首次证明了 SVAE 处理丢失数据时处理多模态的能力。这些优化创新使 SVAE 能够通过梯度下降法进行学习。
Jun, 2023
本研究尝试构建一个网络以将在线和离线手写字符相互转换。该网络由两个变分自编码器(VAEs)组成,具有共享的潜在空间,通过提出的 Cross-VAE 方法相互转换在线和离线手写字符成为可能。
Jun, 2019
该研究提出了一种利用 Transformer 神经模型生成特定作者风格文章的方法,并采用去噪自编码器 (DAE) 损失,通过微调预训练语言模型来提高作者风格的产生,同时通过定量和定性方法证明该方法比现有技术更加有效。
Sep, 2019
我们研究了应用于手写验证任务上的自监督学习方法,对比了多种生成式对比式自监督学习方法和手工特征提取器以及有监督学习在 CEDAR AND 数据集上的表现。结果显示,基于 ResNet 的变分自动编码器(VAE)在准确度上超越其他生成式方法,达到 76.3% 的准确度;而使用方差不变协方差正则化(VICReg)进行微调的 ResNet-18 在准确度上超越其他对比式方法,达到 78% 的准确度。使用预训练的 VAE 和 VICReg 进行下游的写作者验证任务,相对于 ResNet-18 有监督基准模型和 10% 的写作者标签,准确度相对提高了 6.7% 和 9%。
May, 2024