在5G、6G网络越来越复杂的今天,运营商们有个共同烦恼——如何提前知道网络未来的状态?比如,某小区明天上午10点的用户数会激增吗?基站的资源利用率会不会“爆仓”?这些预测是数字孪生网络(DTN,虚拟镜像物理网络的技术)的核心能力,能帮运营商提前优化配置,避免“临时抱佛脚”。但现有的预测方法要么依赖大量历史数据(比如得先收集22天数据才能训练模型),要么泛化能力差(换个新场景就“失效”),遇到动态变化的网络就“抓瞎”。最近,我国研究团队在《Frontiers of Information Technology & Electronic Engineering》期刊上发表论文,提出了一个叫TSNet的时间序列基础模型,像给数字孪生网络装了“智能大脑”,不用大量历史数据也能精准预测。

传统方法的“痛点”:数据依赖、泛化性差

要理解TSNet的价值,得先看看传统方法的局限。论文提到,过去的预测方法主要分三类:统计方法(比如ARIMA)需要假设数据有固定规律(比如季节性),但真实网络的状态(用户数、流量等)变化复杂,很难“套公式”;机器学习方法(比如随机森林)需要工程师手动设计特征,费时费力;深度学习方法(比如LSTM、Transformer)虽然能自动学特征,但得用长期历史数据训练,而实际网络中数据可能缺失或不够(比如新基站刚部署),模型还可能因网络配置变化(比如用户习惯改变)“过时”。

TSNet的“三板斧”:学规律、少数据、强泛化

针对这些问题,研究团队设计了TSNet,核心是“预训练+微调”框架,就像先让模型“上大学”学通用知识,再“实习”适应具体工作。具体有三个创新点:

第一,给Transformer“打补丁”,适配时间序列。 传统Transformer在自然语言处理(NLP)里很厉害,但直接用在时间序列(比如每小时的用户数)上“水土不服”。TSNet加了两个模块:一是“频率学习注意力”,把时间序列从“时间轴”转到“频率轴”(比如找出数据的周期性波动),再用稀疏注意力捕捉关键信息,既高效又能抓住隐藏规律;二是“时间序列分解”,把数据拆成长期趋势(比如用户数整体增长)和短期波动(比如每天早晚高峰),分别处理,就像把蛋糕的“主体”和“装饰”分开切,模型学起来更清晰。

第二,零样本预测:不用新数据也能干活。 TSNet先在大量历史数据(超过30万条网络状态序列)上预训练,学懂各种网络指标(用户数、流量、资源利用率等)的通用规律。之后遇到新场景(比如新基站),不用重新训练,直接“零样本”预测,就像学过“数学基础”的学生,遇到新题型也能举一反三。

第三,少样本微调:用少量数据“升级”。 如果有少量新数据(比如几天的历史记录),TSNet还能“微调”——只调整输入输出层等少量参数,既保留预训练学的“通用知识”,又快速适应新场景,解决“模型过时”的问题。

实验验证:零样本比传统模型准,微调后更优

研究团队用新实验站点的8类网络指标(用户数、上下行流量等)测试TSNet。结果显示,零样本预测时,TSNet的平均预测误差(MAE)是0.1111,比需要22天历史数据训练的LSTM(0.1694)、NBeats(0.1336)等传统模型都低;微调后,平均MAE进一步降到0.0847,相当于预测误差减少了约24%。更关键的是,传统模型要为每个指标、每个基站单独训练,而TSNet“一个模型打天下”,大幅降低了使用门槛。

未来展望:从预测到“全能选手”

论文提到,TSNet未来还能扩展到更多任务,比如识别网络异常(比如突然断连)、分类网络状态(比如“高负载”“低负载”)。随着6G和数字孪生技术普及,这样的模型可能成为网络运维的“标配”——既不用等大量数据“喂饱”模型,又能灵活应对网络变化,帮运营商省下大量时间和资源。

来源: 信息与电子工程前沿FITEE