“刚打开AI相册整理照片,手机就提示‘电量低于20%’”——这是不是你在用智能设备时的真实写照?随着语音助手、图像识别等AI应用普及,手机、智能手表等边缘设备的“续航焦虑”越来越严重。近日,《Frontiers of Information Technology & Electronic Engineering》发表的综述论文指出,通过联邦学习能效优化技术,边缘设备在AI训练中的能耗可降低70%,通信量减少一半,让“边充电边用AI”成为历史。
为什么你的手机跑AI这么“费电”?
传统AI训练需要把数据上传到云端,就像“学生背着一书包作业去学校请教老师”,既慢又不安全。而联邦学习(FL) 作为隐私计算的“黑科技”,让设备在本地完成模型训练,只上传参数更新(相当于“只带作业本答案”),但这依然让边缘设备“压力山大”。
论文揭示,FL的能耗主要来自“计算”和“通信”两大“电老虎”:本地训练时,手机CPU/GPU高速运转,功耗公式类似
给AI“减肥”“分工”“组队”:三大策略破解能耗难题
研究团队梳理了全球200多项研究,总结出FL能效优化的“三板斧”,每项策略都有实打实的数据支撑:
第一招:给模型“瘦身”——用简笔画代替油画
通过量化(降低参数精度)和剪枝(删除冗余神经元),让模型“变轻”。比如把32位浮点数参数压缩成8位整数(类似用黑白照片代替彩色),通信能耗直接减少50%,而精度仅下降3%。论文中的Fig.3显示,在图像识别任务中,4位量化甚至能在精度损失小于2%的情况下,将传输数据量压缩8倍,堪称“减肥不减质”。
第二招:智能“分工”——让设备各尽所能
针对不同设备的性能差异(如同“有的同学用计算器,有的用算盘”),动态资源分配策略可智能调节计算频率和通信带宽。例如,给高端手机分配复杂计算任务,用GPU并行加速;给老旧设备分配简单任务,降低CPU频率。实验表明,这种“量体裁衣”的方式能使系统整体能耗降低40%,还能避免“掉队者问题”(部分设备太慢拖慢全局进度)。
第三招:“组队”训练——选对队友事半功倍
客户端选择策略如同“组队做项目,选靠谱队友”:优先挑选电池容量大、信道质量好的设备(如充电中的平板、Wi-Fi环境下的智能家居),同时兼顾数据多样性。数据显示,这种策略能让单轮训练能耗降低18%,还能加速模型收敛,减少总训练轮次。
现实挑战:“省电”和“好用”能两全吗?
尽管成效显著,技术落地仍面临“平衡难题”。例如,过度压缩模型可能导致AI“变笨”——论文中Fig.4显示,当量化精度低于2位时,图像识别准确率会骤降20%,相当于“把人像认成风景”。此外,设备动态性(如用户突然接电话占用CPU)会打乱资源分配,让能耗优化“时灵时不灵”。
未来,随着6G和低功耗芯片发展,研究者计划将智能反射面(IRS) 融入通信环节,通过反射信号增强传输效率,就像“给信号搭个顺风车”;同时开发专用AI芯片,让手机在低功耗模式下也能高效训练。论文特别指出,当边缘设备数量超过1000台时,现有算法需进一步优化,才能应对大规模异构网络的能耗挑战。
来源: 信息与电子工程前沿FITEE
科普中国公众号
科普中国微博

帮助
Engineering前沿