想象一下,运营商想知道某基站明天上午10点的用户数会不会“爆表”,传统方法得先收集22天的历史数据才能训练模型;要是新基站没数据,或者网络配置突然变化,模型还可能“失效”——这是数字孪生网络(DTN)面临的真实困境。最近,我国研究团队在《Frontiers of Information Technology & Electronic Engineering》期刊上发表论文,提出了一种叫TSNet的时间序列基础模型,像给网络预测装了“自适应大脑”,不用大量历史数据也能精准“预判”未来网络状态。

传统预测的“卡脖子”问题:数据依赖与泛化乏力

数字孪生网络的核心能力之一,是通过当前网络状态预测未来表现(比如延迟、可靠性),帮运营商提前优化。但现有的预测方法各有“硬伤”:统计方法(如ARIMA)得假设数据有固定规律(比如每天用户数的“早高峰”),但真实网络状态(流量、资源利用率等)变化复杂,很难“套公式”;机器学习方法(如随机森林)依赖工程师手动设计特征,像给不同“题型”编“解题模板”,费时又低效;深度学习方法(如LSTM、Transformer)虽能自动学特征,却要“喂”大量历史数据才能训练,遇到新基站或网络配置变化(比如用户习惯突变),模型就可能“过时”。

TSNet的“破局”思路:预训练学规律,微调快适应

针对这些痛点,研究团队设计了TSNet,核心是“预训练+微调”框架,就像让模型先“上大学”学通用知识,再“实习”适应具体场景。它有三个关键创新:

第一,给Transformer“量身定制”时间序列适配。 传统Transformer在自然语言处理(NLP)里很擅长“理解上下文”,但直接用在时间序列(比如每小时的用户数)上“水土不服”。TSNet做了两个改造:一是“频率学习注意力”,把时间序列从“时间轴”转到“频率轴”(比如找出数据的周期性波动),再用稀疏注意力捕捉关键信息,既高效又能抓住隐藏规律——就像把“流水账”的时间数据,变成“有节奏的乐谱”来分析;二是“时间序列分解”,把数据拆成长期趋势(比如用户数整体增长)和短期波动(比如每天早晚高峰),分别处理,就像把蛋糕的“主体”和“装饰”分开切,模型学起来更清晰。

第二,零样本预测:没新数据也能“上岗”。 TSNet先在大量历史数据(超过30万条网络状态序列)上预训练,学懂各种网络指标(用户数、流量、资源利用率等)的通用规律。之后遇到新场景(比如刚部署的基站),不用重新训练,直接“零样本”预测,就像学过“数学基础”的学生,遇到新题型也能举一反三。

第三,少样本微调:用少量数据“升级”。 如果有少量新数据(比如几天的历史记录),TSNet还能“微调”——只调整输入输出层等少量参数,既保留预训练学的“通用知识”,又快速适应新场景,解决“模型过时”的问题。这种方法就像给手机“升级系统”,只更新关键功能,不删原有数据,高效又安全。

实验结果:零样本更准,微调后“再上一层楼”

研究团队用新实验站点的8类网络指标(用户数、上下行流量等)测试TSNet。结果显示,零样本预测时,TSNet的平均预测误差(MAE)是0.1111,比需要22天历史数据训练的LSTM(0.1694)、NBeats(0.1336)等传统模型都低;微调后,平均MAE进一步降到0.0847,相当于预测误差减少了约24%。更关键的是,传统模型要为每个指标、每个基站单独训练,而TSNet“一个模型打天下”,大幅降低了使用门槛。

未来可能:从预测到“全能选手”

论文提到,TSNet未来还能扩展到更多任务,比如识别网络异常(比如突然断连)、分类网络状态(比如“高负载”“低负载”)。随着6G和数字孪生技术普及,这样的模型可能成为网络运维的“标配”——既不用等大量数据“喂饱”模型,又能灵活应对网络变化,帮运营商省下大量时间和资源。

来源: 信息与电子工程前沿FITEE