印地文文本分类的深度学习比较
本文分析了深度学习在自然语言处理三个核心任务(文本表示、词序建模和知识表示)中的应用现状,探讨了在文本分类背景下自然语言处理所取得的改进和协同效应,同时考虑了文本生成、文本分类和语义解析中对抗技术所带来的挑战,通过对文本分类任务的经验研究,证明了交互式集成训练的有效性,特别是与 TextCNN 结合,凸显了这些进展对文本分类增强的重要性。
Mar, 2024
研究了使用自然语言处理 (NLP) 进行自动文章评分 (AES) 在英语中被广泛探索,而在印地语等低资源语言中尚未被探索的现状,并在印地语领域复现和比较了 AES 的最新方法。
Feb, 2023
近年来,深度学习通过能够学习语言数据的复杂表示方式从而在自然语言处理中带来了革命性的变化,深度学习模型广泛应用于提升多种自然语言处理任务的性能。本文综述了近年来流行的文本摘要任务,包括抽取式、生成式、多文档等,并讨论了相关的深度学习模型以及其在这些任务上的实验结果,同时涵盖了摘要任务的数据集和数据表示,以及与之相关的机遇和挑战,旨在激发未来的研究努力以进一步推动该领域的发展。研究目标在于解释这些方法在其需求上的不同之处,因为对它们的理解对于选择适用于特定环境的技术至关重要。
Oct, 2023
本文综述了深度神经网络在自然语言处理中的应用,重点关注长文本处理的挑战和解决方案,包括文档分类、摘要生成和情感分析等任务,同时列举了当前用于研究的公开数据集。
May, 2023
本文介绍了一种新的基于 VDCNN 的文本处理体系结构,通过使用 29 个卷积层,仅使用小型卷积和池化操作,该模型的性能得到了提高,并且在多个公共文本分类任务上,相对于现有模型,且在文本处理中使用非常深的卷积神经网络实现了最先进水平。
Jun, 2016
该研究通过深度学习和嵌入可视化对多语言文本分类方法进行比较研究,特别关注 FastText 和 Sentence Transformer 模型,并探索了维度对聚类的影响。研究结果显示,FastText 在二维可视化中显示出更清晰的聚类效果,取得了显著的准确性、精确率、召回率和 F1 分数,优于 Sentence Transformer 模型。该研究强调了这些技术在多语言文本分类中的有效性,并强调了使用大型多语言语料库进行嵌入训练的重要性。它为未来的研究奠定了基础,并辅助开发语言检测和分类系统。此外,研究还对多层感知机、LSTM 和卷积模型进行了比较。
Dec, 2023
本文介绍了几种机器和深度学习方法,应用于孟加拉语新闻分类。这些方法包括逻辑回归、支持向量机、卷积神经网络以及词向量等,同时提出了自动标记的方法,并在孟加拉语最大的新闻分类数据集 Potrika 上评估了它们的性能。
Oct, 2022