SeedBERT: 从聚合标签中恢复注释器评分分布
本文进行了一项针对语言模型 BERT 的情感分析任务的实验性研究,重点分析了如何更好地处理 BERT 输出层的不同嵌入以及使用与多语言模型相比更适合巴西葡萄牙语的语言模型的聚合策略和技术,并发现 BERT 在大多数情况下与 TF-IDF 相比取得了更高的预测性能,但 TF-IDF 在预测性能和计算成本之间达到了良好的平衡。
Jan, 2022
通过数据科学技术(包括机器学习、自然语言处理和教育数据分析),利用自然语言处理的 BERT 相关技术改进针对英语学习者(ELLs)的自动化反馈工具,以提高 ELLs 的写作能力评估。
Jan, 2024
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本文介绍了一种基于 BERT 的模型 MetricBERT,该模型通过学习嵌入文本并同时遵循传统的掩码语言任务,以在定义明确的相似度度量下进行。我们主要关注于推荐中的学习相似性的下游任务,表明 MetricBERT 在超越其他最先进的替代方法并取得显著优势方面出色地表现。此外,我们还发布了一个由领域专家制作的视频游戏描述数据集以及测试集的相似性注释。
Aug, 2022
本论文介绍了一种可联合学习的针对 BERT 的多尺度文章表示法,并且采用了多种损失函数和跨领域文章的迁移学习,实验结果表明我们的方法在 ASAP 任务中取得了几乎所有深度学习模型中最先进的结果,并且该多尺度文章表示法在 CommonLit 可读性奖数据集上也具有良好的一般性,这表明本文提出的新型文本表示法可能是长文本任务的一种新而有效的选择。
May, 2022
BERTScore 是一种针对文本生成的自动评估指标,利用上下文嵌入计算 token 的相似性,能够更好地与人类判断相关,并提供比现有度量更强的模型选择性能。
Apr, 2019
本文探讨了预训练语言模型中上下文化嵌入的建模能力,并使用简单明了的神经基线处理端到端方面的情感分析任务。实验结果表明,即使使用简单的线性分类层,我们基于 BERT 的架构的性能也能超过最新的方法。此外,我们还使用保留验证数据集来标准化比较研究,这是之前的工作往往忽略的,因此,我们的工作可以作为 E2E-ABSA 的 BERT 基准。
Oct, 2019
本文基于德文语料库的数据集,在多个体系结构中通过词嵌入联想测试(WEAT)分析了预先训练的德语语言模型的偏见,发现这些语言模型存在实质性的概念、种族和性别偏见,并且在同伴评审数据的微调中,偏见在概念和种族轴上有显着变化。
Sep, 2022
本文论述了嵌入式度量用于关于文本生成的度量技术,在面对新的和嘈杂的领域时,它们的贡献和一些挑战,考虑到输入的噪声量和未知的记号。这篇文章重点研究 BERTScore,证明了使用预训练模型第一层的 字符级别嵌入 比标记级嵌入更加鲁棒。
Sep, 2022
针对多方面情感分析问题,本研究提出了一种名为 ATESA-BÆRT 的异构集成学习模型,通过将问题划分为两个子任务(Aspect Term Extraction 和 Aspect Term Sentiment Analysis)并在每个子任务上使用六个基于 transformer 的学习器,使用 argmax 多类别分类方法,解决了多方面问题并且在实验中表现优于当前最先进解决方案。
Jul, 2023