BriefGPT.xyz
Ask
alpha
关键词
n-grams
搜索结果 - 25
NIPS
基于字符级卷积神经网络的文本分类
本文通过构建大规模数据集,比较了基于字级别的卷积神经网络与传统模型如词袋、n-gram 及基于词的卷积神经网络和循环神经网络在文本分类方面的表现。结果表明,基于字级别的卷积神经网络能够达到当前领域最佳或竞争性的结果。
PDF
9 years ago
ICLR
基于 N-gram 的文本低维度表示方法用于文档分类
本文提出了一种使用 n-grams 的 BOW 模型,通过调用 Skip-gram 模型快速获得单词向量表示并将其平均以获得 n-grams 的表征,从而在低维度空间中为所有 n-grams 维护了相同的语义信息,使用 K-means 聚类
→
PDF
10 years ago
无约束文本识别的深度结构化输出学习
本研究提出一种基于卷积神经网络和条件随机场的模型,通过预测字符和 N-grams 以识别自然图像中词语,同时实现多任务学习,无需有固定的单词列表,实验证明其在标准实际文本识别基准中的准确性优于仅预测字符,也达到了有限词汇识别的最高精度。
PDF
10 years ago
使用词观察值训练受限玻尔兹曼机
本文描述了如何使用更高效的马尔可夫链蒙特卡罗算子来训练受限玻尔兹曼机 (RBM),以有效地处理自然语言处理中的高维度多项式观察值,通过在数百万个单词 n-gram 上训练 RBM,并使用所学特征来提高分块和情感分类任务的性能,从而实现了后一
→
PDF
12 years ago
语言建模的一点进展
在语言建模领域中,我们探寻了多种技术的变体或极限,验证单一技术与多种技术的相互作用,将所有技术组合应用在一起,较标准的 Katz 平滑 3 元语言建模方法,我们取得了 38% 至 50% 的困惑度减少,Word 错误率降低 8.9%。
PDF
23 years ago
Prev
Next