在深夜回首往事时,我们的大脑总爱进行一场奇异的时间旅行。“如果大学时我选了另一个专业,现在会在做什么?”或者更简单点,“如果今早出门带了伞,我就不会淋成落汤鸡了。”这些关于过去可能发生却并未发生的假设性思考,在心理学和哲学上被称为“反事实推理”。

这种能力对人类来说就像呼吸一样自然。我们不仅生活在现实世界中,还同时生活在一个由无数可能性构成的思维沙盘里。我们凭借这种能力去后悔过去、规划未来,甚至理解复杂的社会责任。令人惊讶的是,那些能在围棋棋盘上碾压人类、能写出华丽十四行诗的人工智能,当面对一个简单的“如果……会怎样”的问题时,却往往会陷入困境。

要理解 AI 为什么难以跨越这道障碍,我们首先得看看人类的大脑是如何轻松做到的。这背后的关键在于我们对这个世界拥有一个因果模型

当我们思考“如果没带伞会怎样”时,我们并不是在脑海里的数据库中检索“没带伞”的历史记录。相反,我们运用了对物理世界的深刻理解:云会导致下雨,雨水落在身上会导致湿透,而伞可以阻挡雨水。我们的大脑中有一张复杂的因果关系网络图。进行反事实推理时,我们就像在操作这个网络图,在脑海中切断了“带伞”这个节点,然后推演接下来会发生的多米诺骨牌效应。这种能力让我们得以超越眼前的数据,去想象一个从未存在过的世界。

目前主流的人工智能,特别是大型语言模型,它们理解世界的方式与我们截然不同。尽管它们阅读了整个人类互联网的文本数据,见识过的知识远超任何博学家,但它们的智慧核心建立在统计和关联之上,而非因果律。

想象一下,一个 AI 观察到每天早上公鸡打鸣后不久,太阳就会升起。在它阅读的海量数据中,“公鸡打鸣”和“太阳升起”这两个事件总是前后脚出现,关联度极高。如果你问它“明天早上公鸡打鸣,太阳会升起吗?”,它会毫不犹豫地回答“会”。

考验来了,如果你问它一个反事实问题:“如果明天早上公鸡生病了没打鸣,太阳还会升起吗?”

对于人类来说,答案显而易见,因为我们知道公鸡打鸣并不是太阳升起的原因。但对于依赖统计关联的 AI 来说,这个问题就变得极为棘手。在它的训练数据里,几乎没有“公鸡不叫但太阳照常升起”的样本。它看到的是两个高度捆绑的事件。当被强制要求想象其中一个事件缺失时,缺乏因果模型的 AI 很难确定这种缺失会不会“牵连”到另一个事件。它可能会根据数据中两者极强的相关性,错误地推断出太阳可能就不会升起了。

这就是统计学中那句老生常谈:相关性不等于因果性。当前最强大的 AI 模型本质上是极其复杂的模式识别引擎。它们能极其精准地捕捉数据中事物同时出现的概率,却很难理解是谁导致了谁。

反事实推理之所以困难,根本原因在于答案永远无法在现有的数据中找到。数据记录的是已经发生的事实,而反事实问的是从未发生过的可能性。要回答这个问题,必须跳出数据的框架,利用对世界运作机制的内在理解来进行思想实验

图灵奖得主、因果推理领域的泰斗朱迪亚·珀尔曾提出了著名的“因果阶梯”理论。他认为人工智能目前大多处于第一层级,即“关联”,主要能力是观察和预测。而反事实推理位于最高的第三层级,代表了想象和反思的能力。这正是目前 AI 技术版图中缺失已久的一块拼图。

科学家们已经意识到了这个问题,并正在努力寻求突破。新的研究方向试图将因果推理的逻辑框架融入神经网络的架构中,教 AI 不仅要去观察数据,还要去构建世界的因果模型,学会像人类一样在脑海中进行干预和假设。

在此之前,当我们惊叹于 AI 的生成能力时,也要清醒地看到它的局限。它或许能完美复述历史,但在想象一个不同的未来——或者一个不同的过去——这件事情上,它还需要向人类的大脑好好学习。

来源: 张天缘的科普号