每天早晨当你轻点手机,让 AI 为你生成一份周报大纲,或者用最新的文生图工具捏出一个赛博朋克风格的头像时,这一切看起来是如此的轻盈、洁净、几乎零成本。在我们的印象里,数字世界仿佛漂浮在云端,不食人间烟火。

然而如果我告诉你,为了回应你的这几次简单点击,在地球的某个角落,一座巨大的工厂正在轰鸣运转,数以万计的高性能芯片正散发着惊人的热量,而为了维持这一切,发电厂可能正在燃烧成吨的煤炭。你会不会觉得手中的屏幕突然变得沉重了一些?

这并非危言耸听。在人工智能看似无所不能的光环之下,隐藏着一个常被忽视的、庞大而有些肮脏的秘密:它是一个极其贪婪的能源巨兽。

“云端”的真相:钢铁与硅片的巨兽

我们常说的“云”,其实是由钢筋水泥和复杂的电路构成的。支撑起 ChatGPT、Sora 以及无数互联网服务的,是遍布全球的数据中心。这些巨大的建筑里并没有什么浪漫的云朵,只有成排成列、永不关机的高性能服务器机柜。

AI 的智慧并非凭空而来,它建立在庞大的算力基础之上。要让机器学会像人一样说话、画画,需要动用成千上万块最顶尖的计算芯片,也就是我们常说的图形处理器,没日没夜地进行数学运算。这些芯片是出了名的“电老虎”,它们在高速运转时会产生巨大的热量。

为了不让这些昂贵的设备烧毁,数据中心必须配备极其强大的冷却系统,比如巨大的工业空调组液冷循环系统。这就像是在炎热的沙漠里维持一座巨大的冰库。因此,数据中心消耗的电力通常分为两大部分:一部分供给芯片进行计算,另一部分则仅仅是为了把计算产生的热量搬运出去。

训练一个大模型,代价几何?

那么培养一个像 GPT-3 这样“才高八斗”的 AI 模型,到底要消耗多少能量呢?

这是一个复杂的数学题,因为不同模型的结构、训练数据量和使用的硬件效率各不相同。但根据一些权威研究机构的估算,训练一个早期的大型语言模型所消耗的电力,足以支撑一个普通美国家庭使用数年甚至更久。

如果我们将这些电力换算成碳排放量,画面会更加直观。有研究指出,训练一个特定的大型 AI 模型过程中产生的二氧化碳排放量,可能相当于五辆汽车整个生命周期的排放总和,这包含了汽车从制造出来到最终报废在路上行驶的所有里程。

这还只是“学费”。这笔巨大的能源开销,仅仅是为了让 AI 从一个什么都不懂的婴儿,成长为一个完成了基础教育的毕业生。更残酷的现实是,为了保持领先,科技公司们正在展开一场极其激烈的军备竞赛,模型参数越来越大,训练所需的数据越来越多,这意味着对能源的需求正在呈指数级爆炸增长。

冰山之下:更庞大的日常开销

如果说训练模型是一次性的大额投入,那么当模型训练完成,开放给我们所有人使用时,漫长的“日常消费”才刚刚开始。这个过程在技术上被称为“推理”。

每当你在对话框里输入一个问题,敲下回车,这个请求就会通过光纤传送到远方的数据中心。那里的服务器会立刻调动算力,运行庞大的模型网络,计算出最合理的下一个字是什么,并将结果传回给你。

虽然生成这一个字的能耗微乎其微,可能只相当于点亮一个小灯泡几秒钟。但是,当全球数以亿计的用户每天进行着数以十亿计的对话、生成着无数张图片时,所谓聚沙成塔,这部分累积起来的能源消耗总量,可能会远远超过最初训练模型时的消耗。

我们正在面临一个尴尬的局面:数字技术的进步是为了提高效率、解决问题,但其自身却正在成为一个新的环境负担。全球数据中心的耗电量已经占据了全球总用电量的一个不可忽视的比例,并且还在快速上升。

当然情况也并非完全绝望。科技巨头们也意识到了这个不可持续的问题,纷纷将数据中心建在水电丰富、气候寒冷或者太阳能充足的地区,试图用清洁能源来喂养这些巨兽。同时,芯片工程师和算法科学家们也在绞尽脑汁,设计更节能的硬件和更聪明的算法,试图用更少的算力做更多的事。

这场人类智慧与能源消耗之间的赛跑,才刚刚拉开帷幕。当我们享受 AI 带来的便利时,或许也应该保持一份清醒:数字世界并不虚拟,它的每一口呼吸,都连接着现实世界的物理脉搏。

来源: 张天缘的科普号