Feb, 2023

提高自然语言处理变形金刚模型长期的分类可靠性

TL;DR本研究比较不同方法用于长期分类任务的 BERT 模型的微调,发现使用所有可用的未标记评论来微调模型是最佳解决方案,而仅关注模型之前未遇到的单词的评论并不可取,其中一个更有效的解决方案是从新时期的评论中随机抽样评论。