多级产品类别预测通过文本分类
提出了 Leap-LSTM, 一种 LSTM 增强模型,可以动态跳跃读取文本以提高长文本处理效率。在对情感分析、新闻分类、本体分类和主题分类等任务进行实验评估后发现,相比标准 LSTM 模型,Leap-LSTM 能够更快速地读取文本并获得更好的预测性能和效率平衡。
May, 2019
本文利用小型数据集对比了双向 LSTM 模型和预训练 BERT 模型的表现,结果表明对于小数据集,使用双向 LSTM 模型的性能显著优于使用 BERT 模型,且训练时间更短,因此在选择模型时需要考虑任务和数据等因素。
Sep, 2020
本研究提出使用 BERT 模型从文本(即评论)中提取词嵌入来改进现有的虚假评论分类或检测方法,结果表明 SVM 分类器在准确度和 F1 得分方面优于其他分类器,并且比之前的研究中使用的分类器高出 7.6%。
Jan, 2023
通过使用深度循环网络模型,如双向 LSTM 和双向 LSTM-CRF,我们比以前的基准测试取得了至少 0.0391 的 F1 得分提升,展示了 97.94%的总体准确度,94.12%的召回率和 0.9599 的 F1 得分,从而实现了重要商品特性的显着覆盖,这不仅显示了深度循环模型相对于以前的机器学习基准测试的功效,还极大地提高了在线购物的整体客户体验。
Mar, 2018
本研究提出了一种多模态模型,通过使用多个神经网络模型从文本(CamemBERT 和 FlauBERT)和视觉数据(SE-ResNeXt-50)提取的特征,并采用简单的融合技术,显著提高了单一模态模型的性能和类似模型性能,我们实验了多种融合技术,并发现将单一模态网络的个体嵌入组合为特征向量的拼接和平均值结合的性能最好,每种模态互补了其他模态的缺点,证明增加模态数量可以是改善多标签和多模态分类问题性能的有效方法。
Jul, 2022
本文进行了一项针对语言模型 BERT 的情感分析任务的实验性研究,重点分析了如何更好地处理 BERT 输出层的不同嵌入以及使用与多语言模型相比更适合巴西葡萄牙语的语言模型的聚合策略和技术,并发现 BERT 在大多数情况下与 TF-IDF 相比取得了更高的预测性能,但 TF-IDF 在预测性能和计算成本之间达到了良好的平衡。
Jan, 2022
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本文通过实验测试,比较机器学习中经典的 TF-IDF 法与 BERT 模型在 NLP 任务中的表现,并为使用 BERT 模型提供了实证支持,结果表明 BERT 模型在 NLP 问题中表现更优秀、更独立。
May, 2020
比较了四种不同的方法在特定数据集上的多标签文本分类性能,结果表明,精细调整的 BERT 表现出较高的准确性,F1 得分,精确度和召回率,相比于其他三种方法表现更好。这些发现突出了 fine tuned BERT 在多标签文本分类任务中的有效性,并暗示它在分析复杂文本方面可能是一种有用的工具。
Jun, 2023