Feb, 2022

使用预训练的Transformer生成上下文感知的数据报文表示,用于加密流量分类:ET-BERT

TL;DR本文提出了一种新颖的流量表示模型称为ET-BERT,该模型在大规模未标记的数据上对Deep contextualized datagram-level进行预训练,然后在少量特定任务的有标签数据上进行微调,取得了在五个加密流量分类任务上的最新成果,尤其是在ISCX-Tor任务上的99.2%的F1分数所达到的显着的提高是本文的重点,作者解释了预训练模型的强力原因,并分析了加密流量之间边界的分类能力,为未来的研究和应用提供了新的思路。