该研究论文讨论了如何在文本分类中使用半监督学习作为解决标注数据少的问题的有效方法,它通过从偏差和方差的角度分析,得出了如果使用更加有效的特征选择方法,无标注数据很有可能提高分类性能,并提出了一个特征选择框架以平衡有标注和无标注样本的训练。同时,研究还将该方法应用到金融情感分析中,并讨论了该方法对文本分类和金融情感分析的影响。
Aug, 2013
本文介绍如何使用基于SVM算法的两种分类器来检测消息(如推文和短信)的情感和词汇层面上的情感,并详细描述了使用各种表层形式、语义和情感特征进行实现。其中,基于词典的特征在所有特征中获得了5个F-score点的增益,两个系统都可以使用现有资源进行复制。
本研究对二十四种正当实践的情感分析方法进行了基准比较,覆盖社交网络、电影、产品评论、新闻文章等十八个数据集,并提供了这些方法的代码和数据集以供使用。结果表明这些方法的预测性能在不同数据集上变化不大。
Dec, 2015
本研究提出了用于优化量化特定的性能参数的首批在线随机算法,其对于多变量优化的理论具有最优的收敛性,并通过实验验证,相对于现有的算法,能够更好地对性能参数进行优化。
May, 2016
本文提出了一种新的多语言情感分类方法,使用了大量的弱监督数据训练多层卷积网络,通过在多种语言数据集上进行充分的评估,证明该方法的优异性能,达到了同类研究的最高水平。
Mar, 2017
本文提出利用大规模无监督语言建模与微调相结合的方法来解决情感多维度分类问题,并在 SemEval2018 Task 1:E-c 上获得竞争力和实际应用价值,成果表明这种方法可以用于真实情感分类任务。
Dec, 2018
本研究使用机器学习和自然语言处理技术(NaiveBayes,Maximum Entropy,Long Short-Term Memory,Bi-Directional Long Short-Term Memory)对来自大学的越南学生反馈语料库进行情感分析,得出使用双向长短期记忆算法进行情感分类的结果最好,可帮助学校识别出问题并提出改进方法。
Nov, 2019
通过使用Deep SVDD算法识别和处理主观标签中的异常值,以提升分类效果。研究结果表明,在大多数情况下,删除异常值可以改善结果,并且大型语言模型DeBERTa v3可以捕捉到复杂模式从而提高性能。
Nov, 2023
我们评估了多种模型,包括传统机器学习模型、预训练语言模型和大型语言模型,比较它们在社交媒体健康相关自然语言处理任务中的性能。实验结果表明,使用大型语言模型进行数据增强可以获得比仅使用人工标注数据训练的模型更好的结果,并且传统的有监督学习模型在零样本设置中也表现出优于大型语言模型的性能。
Mar, 2024
该研究针对情感分析在数字平台应用中的潜力,填补了现有方法在情感极性提取方面的空白。通过采用基于词典的方法并结合多个分类模型,研究展示了如何在词汇层面识别情感强度及主观性,同时达到了81%的准确率。此研究的发现将为更精准的情感分析和个性判断提供支持。
Sep, 2024