Jun, 2023

主题分类的单 / 跨语言知识迁移

TL;DR通过研究 RuQTopics 数据集中的知识转移情况,本文证明了该数据集非常适合用于实际对话任务,在多语言 BERT 上进行训练可以带来更好的结果。