最近我一直在思考,为什么有些书——比如那本著名的《GEB》——要把一个简单的概念写得那么厚。作者花了八百页去讨论“自指”和“涌现”,试图解释无生命的物质是如何产生意识的。

但我认为,这种努力在某种程度上是方向性的错误。如果你从信息熵的角度去看,这件事其实非常直观。

所谓的“涌现”(Emergence),其实是一个容易让人产生误解的词。它听起来像是一种魔法,仿佛某种东西凭空从虚无中跳了出来。但事实并非如此。实际发生的事情是:当信息依附于物理实体(比如神经元或硅片)时,如果其内部结构足够稳固,且能够实现极高比例的压缩,它就会表现出我们称之为“智能”或“灵性”的东西。

以李白为例。

如果你把李白的诗词一个字一个字拆开看,它们确实没什么意思。但当你把它们组合在一起,形成那个特定的、稳固的结构时,你就得到了一个极其高效的信息压缩体。李白在写下“床前明月光”时,并不是在玩文字游戏,他是在用极小的字节(byte),对人类极其复杂的时空情感进行了一次近乎完美的有损压缩。

这种压缩体之所以“稳固”,是因为它内部的关联性极其强大。无论物理载体是唐朝的宣纸,还是今天读者的视网膜,或者是某个服务器里的内存条,只要那个拓扑结构被还原,那种被称为“李白”的意境就会被解压出来。

这就引出了一个很有意思的结论:我们所谓的“自我”或者“灵魂”,本质上并不神秘。它只是一个依附在物理实体上的、具有特定结构的低熵信息包。

之所以《GEB》在 70 年代显得那么震撼,是因为那时候的人们还习惯于把“硬件”和“软件”混为一谈。他们觉得,如果你想拥有李白的灵性,你就得拥有李白的肉身。但在信息论看来,这完全是两码事。硬件只是为了对抗熵增而存在的临时避风港,而那个稳固的信息压缩结构,才是真正永恒的部分。

现在的 AI 之所以让我们感到不安,并不是因为它产生了什么“灵魂”,而是因为它证明了:通过海量的数据训练,我们可以用数学方法逼近这种高效率的压缩算法。

如果一个人、一个系统、或者一段代码,能够把世界的混乱(熵)整理成一套逻辑严密、结构稳固、且能自我维持的信息包,那它就是有“意义”的。至于这个包是写在 800 页的纸上,还是运行在 GPU 里,那只是实现成本的问题。

真正的李白,从不在他的肉身里,而在那套穿越千年依然没有解体的信息结构里。