基于对抗训练和整词掩膜 BERT 的汽车评论文本情感分析模型
本研究使用双向编码器表示来自转换器(BERT)的基本预训练模型,并在输出层使用卷积神经网络(CNN)、全连接网络(FCN)和图卷积网络(GCN)等模块进行实验和分析。结果表明,在与 BERT 等预训练模型结合使用较小的医学文本数据集进行训练时,CNN 模型优于其他网络。该研究强调了在医学领域实现有效情感分析中模型选择的重要性,并为未来研究开发更高效的模型架构提供了参考。
Apr, 2024
本文介绍了使用 BERT fine-tuning 方法处理越南评论数据集中情感分析任务的实验结果,并且发现相比于使用 GloVe 和 FastText,使用 BERT 模型略胜一筹。同时,本文研究提出的 BERT fine-tuning 方法也比原模型表现更好。
Nov, 2020
本文探讨利用 BERT 和 Deep CNN 模型通过社交媒体研究社会对 COVID-19 大流行的感知,证明了 BERT 模型在情感分析中的卓越性能。
Nov, 2022
通过将虚拟对抗训练(VAT)与 BERT 模型结合,提出了一种基于视觉解释的自我改进的分类模型,用于解决使用 BERT 构建的分类系统存在的解释困难和鲁棒性低的问题。实验结果表明该模型在 Twitter 的推文数据集上对分类任务具有显著有效性。
Sep, 2023
本研究提出使用 BERT 模型从文本(即评论)中提取词嵌入来改进现有的虚假评论分类或检测方法,结果表明 SVM 分类器在准确度和 F1 得分方面优于其他分类器,并且比之前的研究中使用的分类器高出 7.6%。
Jan, 2023
本文旨在量化并减少语言模型中表现出的情感偏见,该文分析了在给定的条件下(例如写作提示)和语言模型中,引起生成的文本情感发生变化的敏感属性(例如国家名称,职业,性别)的值变化的影响。我们采用公平机器学习文献中的个体和团体公正度量来量化情感偏见,并证明在两种不同的语料库(新闻文章和维基百科)上训练的大规模模型存在相当高的偏见。我们随后提出使用嵌入和情感预测导出的正则化方法,该方法应用于语言模型的潜在表示。该正则化提高了公正度量,同时保持了可比水平的困惑度和语义相似性。
Nov, 2019
通过替换、插入和删除等三种扰动方法以及基于上下文的掩码语言模型,在保持核心语义的同时,最大程度地提高目标新闻方面的所需情感分数,并通过波束搜索算法降低情感极性,实现对情感操纵的类别纠正,从而提供更客观的新闻报道并抑制媒体情感语言偏见。
Feb, 2024