打开科技新闻,我们几乎每天都能被各种天文数字轰炸:某公司推出了拥有万亿参数的新模型,某数据中心采购了数万块顶尖GPU,超级计算机的浮点运算速度又刷新了纪录。在这些令人眩晕的数字背后,似乎潜藏着一个默认的逻辑公式:更大的算力加上更多的数据,就等于更强的智能。

这种线性思维非常符合直觉。毕竟,在我们熟悉的工业时代,投入更多的煤炭和钢铁,通常就能造出更庞大的机器和更高的产量。在信息时代初期,更快的处理器确实带来了更流畅的体验和更复杂的软件。于是,我们理所当然地认为,只要不断地堆叠显卡,那个全知全能的“通用人工智能”就会在某个时刻突然涌现。

现实情况可能比这个美好的愿景要复杂得多。算力的指数级增长无疑是推动近年来AI浪潮的基石,但如果把算力等同于智能,就像是认为只要拥有了世界上最强大的引擎,就自动成为了一名顶尖的赛车手一样天真。

我们要搞清楚算力到底在做什么。无论是曾经战胜人类围棋冠军的AlphaGo,还是如今能写诗作画的生成式AI,它们核心依赖的深度学习技术,本质上是一场规模空前的数学统计游戏。算力在这里扮演的角色,是超级计算器。它以人类无法企及的速度,在海量的数据海洋中寻找模式、拟合概率。

当一个大语言模型流畅地回答你的问题时,它并不是像人类一样理解了你的意图,然后进行了逻辑推理。它只是根据它“读”过的互联网上数以亿计的文本,计算出在当前上下文中,下一个最可能出现的字词是什么。只要算力足够强大,模型就能记住足够多的语言模式和知识片段,从而表现出一种“博学多才”的假象。

这种基于统计相关性的“智能”,与人类真正理解世界的智慧有着本质的区别。人类的智能核心在于因果推理常识判断以及举一反三的泛化能力。我们不需要阅读上万遍关于“火”的文献,只需要被烫一次,就能理解火的危险并避开所有类似的高温物体。

而当前的AI模型,哪怕参数量再大,在面对它训练数据分布之外的全新场景时,往往会表现得像个“人工智障”。比如,它们可能在复杂的医学考试中拿高分,却在一个三岁小孩都能回答的简单物理常识问题上翻车。这是因为它们只是记住了答案的概率分布,而没有构建起对物理世界运行规律的真正模型。单纯增加算力,只是让它记得更多、算得更快,并没有让它理解得更深。

一个更具讽刺意味的对比来自生物界。我们人类的大脑,这个已知宇宙中最复杂的智能体,其运行功率大约只有20瓦,仅相当于一个昏暗的灯泡。而为了训练和运行一个稍微接近人类语言能力的AI大模型,需要数千台高功耗服务器夜以继日地工作,其能耗相当于一座小型城镇。

这巨大的能效鸿沟揭示了一个尴尬的事实:我们目前的人工智能架构在根本上可能是低效的。我们是在用蛮力去模拟智慧的表象,而不是破解了智慧的密码。如果算法的底层逻辑没有突破,仅仅依赖摩尔定律带来的算力红利,我们很快就会触碰到天花板。边际效应递减规律告诉我们,为了获得下一点点智能的提升,我们需要投入的算力和能源成本将呈指数级爆炸,直到在经济和环境上变得不可持续。

算力是通往人工智能时代的燃料,这一点毋庸置疑。没有强大的计算基础设施,现代AI的所有成就都无从谈起。但我们必须清醒地认识到,燃料并不等于引擎的设计图。真正的智能提升,来源于算法层面的革命性突破,来源于对人脑认知机制的深层模拟,以及构建出能够进行真正逻辑推理和因果判断的新一代架构。在那个突破到来之前,单纯地堆砌芯片,或许能造出更强大的复读机,但造不出会思考的大脑。

来源: 张天缘的科普号