Mar, 2024

改进文本流中 Fine-tuning SentenceBERT 的采样方法

TL;DR本研究旨在解决概念漂移的问题,探索了七种文本抽样方法对于语言模型进行精细调整并缓解性能退化的有效性。通过评估基于四种不同损失函数的 SBERT 模型的微观 F1 分数和耗时,研究发现 Softmax loss 和 Batch All Triplets loss 在文本流分类方面表现出色,且较大的样本量通常与提高的宏观 F1 分数相关联。值得注意的是,提出的 WordPieceToken 比例抽样方法显著提升了使用所识别的损失函数的性能,超过了基准结果。