-
题名基于字节编码与预训练任务的加密流量分类模型
- 1
-
-
作者
姚利峰
蔡满春
朱懿
陈咏豪
张溢文
-
机构
中国人民公安大学信息网络安全学院
-
出处
《计算机工程》
北大核心
2025年第2期188-201,共14页
-
基金
中国人民公安大学网络空间安全执法技术双一流创新研究专项(2023SYL07)
中国人民公安大学2022年基本科研业务费课题(2022JKF02009)。
-
文摘
当预训练模型BERT应用于加密流量分类领域时,缺乏针对加密流量特性设计的编码方法和相应预训练任务。为此,提出一种融合字节级编码与改进预训练任务的加密流量分类预训练模型。首先,设计了一种新型词汇表构建方法,增强模型对流量传输结构的表征能力;其次,提出动态掩码BURST预测和同源BURST连贯性预测2个新的自监督预训练任务,动态掩码BURST预测任务增强模型对加密流量语义多样性的获取能力,同源BURST连贯性预测任务提高模型对加密流量连贯性顺序的建模能力。实验结果表明,所提模型在CSTNET-TLS 1.3数据集上的准确率、精确率、召回率和F1值分别为98.52%、98.40%、98.35%、98.43%,与现有性能最好的预训练基准模型相比,分别提高了1.15、0.98、0.93、1.02百分点。此外,在5个下游加密流量分类任务的7个主流数据集上,所提模型能够有效分类加密流量。
-
关键词
加密流量分类
预训练模型
字节级编码
自监督预训练任务
微调方法
-
Keywords
encrypted traffic classification
pre-training model
byte-level encoding
self-supervised pre-training task
fine-tuning method
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-