素描绘画的神经表示
本文提出了Deep Recurrent Attentive Writer(DRAW)神经网络架构,用于图像生成。DRAW网络结合了模仿人眼视觉聚焦的一种新颖空间注意机制,以及允许迭代构建复杂图像的顺序变分自编码框架。该系统在MNIST上的生成模型技术上显著改进,并且当在街景房屋数字数据集上进行训练时,生成的图像与真实数据的区别无法用肉眼区分。
Feb, 2015
本研究提出了一种基于递归神经网络的手绘图形识别架构,通过利用深度草图特征和加权每个时步损失来实现在大量对象类别上的最新结果,尤其适用于在线识别对象。
Aug, 2016
提出了一种改进型的模型,即sketch-pix2seq模型,用于学习和生成多类别素描,其中替换了RNN编码器为CNN,从目标函数中删除了KL散度,实验表明其性能优于其他模型
Sep, 2017
该研究提出了一种利用注意力机制和神经网络实现端到端学习的新型 freehand sketching 认知方法,相比于现有技术更加鲁棒和有效,能够在大规模的手绘图像识别竞赛中获得更好的性能表现。
Nov, 2018
本文提出了一种新的手绘草图表示方式,将其作为多个稀疏连接的图形,利用设计的多图变压器(MGT)进行学习,从多个图形中同时捕获全局和局部几何笔画结构以及时间信息;实验证明,该方法可用于在Google QuickDraw上进行草图识别,相对CNN性能上限的精度达到了72.80%,且显著优于所有基于RNN的模型。
Dec, 2019
本研究解决了手绘图像自监督表征学习的问题,提出了一种针对手绘图像的特定预处理任务和文本卷积网络的双分支架构,通过在百万级手绘图像数据集上进行的两个应用方法来证明该方法明显优于现有的无监督表征学习方法,并显著缩小了与监督表征学习之间的性能差距。
Feb, 2020
该研究提出了一种基于Transformer的sketch领域学习模型Sketch-BERT,包括新设计的sketch嵌入网络和自监督学习的sketch gestalt,其在pre-training和downstream tasks中提高了sketch识别、检索、以及gestalt任务的表现。
May, 2020
本研究提出了BezierSketch作为全矢量、高分辨率的生成模型,采用新颖的逆向图形学方法将每个笔画嵌入到其最佳Bezier曲线中。通过使用这个模型,我们成功训练了一个具有更大容量生成长时间草图的递归草图生成器,并且取得了较好的定性和定量结果。
Jul, 2020
通过将可变长度的矢量草图压缩为固定维度的潜在空间并将其作为时间和笔画的函数进行隐式编码,我们提出了SketchINR,可以改进矢量草图的表示。尽管其简单性,SketchINR在多个任务上优于现有的表示方法。
Mar, 2024