Sep, 2022

Transformer 模型能否有效地在 StackOverflow 讨论中检测出软件方面?

TL;DR本文通过对 Benchmark API 数据集的实验探究,发现 Transformer 模型(包括 BERT、RoBERTa、DistilBERT 和 XLNet)在检测文本开发者讨论中的软件方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面方面较基准 SVM 模型有所改进,尤其在性能、安全性、可用性、文档、错误、法律、唯一情感和其他方面。但是,这些模型在掌握某些方面(例如 “社区” 和 “可移植性”)方面会出现错误,并且它们的性能因方面而异。此外,与 DistilBERT 等较小的模型相比,较大的 XLNet 模型在解释软件方面方面方面方面方面方面方面方面方面方面方面较为无效。