万物源自比特

读《信息简史》

我们每天都在接触无数的信息,它们如同洪流一般将我们淹没,很多时候让我们不知所措。那么信息究竟是什么?该如何来度量?它的过去和未来究竟是怎样的?我们可以从格雷克(James Gleick)的这本《信息简史》中略窥一二。

从非洲的鼓声到计算机中的电路,信息的载体经历了诸多的变化,但信息的本质却直到近一百年才被清晰地定义。从古到今,语言一直是人们交流的首要工具,它足够直观,但传播效率却并不高。从口语到文字的转变是第一次进步,从此,思想有了载体,得以在岁月中沉淀下来,代代相传,而文字的结构对于人类的思维也有着重要影响。从中世纪到近代,随着数学的发展,人类企图用更为抽象简洁的形式来记录传递信息,巴贝奇(Charles Babbage)的差分机便是一种尝试,他试图用机械来模拟人脑中的计算。而和他一起共事的拜伦之女爱达(Ada Lovelace)则被誉为第一个程序员,那还是19世纪,爱达的脑海中已经有了算法的雏形。摩斯电码也是这一时期的里程碑,借助电的力量,人类第一次即时收到了来自大洋彼岸的消息。

20世纪,人类从工业时代跨入了信息时代,这一切的基础是电子计算机。但在计算机出现之前,已经有人凭借着数学与逻辑在脑中构想出了这样的机器,这便是图灵(Alan Mathison Turing)和他的图灵机,这种想象中的机器用高度形式化的指令来处理同样形式化的信息(二进制)。而创立了信息论的香农(Claude Elwood Shannon)则更进一步,第一次将信息这个模糊的概念进行了度量,这就是信息熵。信息熵来源于热力学中的熵,它们都和无序,随机有着密不可分的关系。热力学中的熵是粒子无序程度的度量,而信息熵描述的是事件的概率分布,每一种可能结果发生的概率越接近,人们就越难预测,这种情况下一条消息中所含的信息量就越多,信息熵越大。这正如书中所表述的:「信息是不确定性,是出人意料,是困难程度,是熵。」

香农用比特(bit)这个单位来测量信息熵,一比特就是一个二进制位,二进制则用来对信息进行编码。通过信息熵这个概念,信息量的大小和对其编码所需二进制位的多少联系到了一起。信息第一次以可量化的形式展现在了人们面前,之后信息时代的各种技术都依赖于香农的信息论。可以说,香农是这波澜壮阔的信息史中最重要的人物。

可能令香农没有想到的是,他那篇划时代的论文《通信的数学理论》在之后的几十年中引发了诸多领域的革新。心理学中的认知科学,生物学中的基因编码,社会学中的模因论,物理学中的量子计算,都和信息论有着密切的关系,更不用说语言学,传播学这类本就和信息相关的学科了。以至于20世纪的物理学大师惠勒(John Archibald Wheeler)用一句「万物源自比特(It from Bit)」概括了这一切:

换言之,任何事物(任何粒子、任何力场,甚至时空连续统本身),其功能、意义和存在本身都完全(即便在某些情境中是间接地)源自……比特。

在这样的世界观下,自然的量子化正是源于信息的量子化,比特是终极的不可分的粒子,而宇宙可能就是一台巨大的计算机,正在计算着自己的命运。信息正如潮水般涌入我们生活的每一个角落,攫取着我们稀缺的注意力,在现代社会中,以信息为食的每一个人都需要学会筛选整合信息。但香农告诉了我们如何计算信息量,却没有告诉我们如何理解信息的意义。要知道,在逻辑和数学的主线之外,思想,这一隐匿在信息背后的灵魂,才是我们用比特书写未来的最强利器。我相信在不远的将来,意义的回归将会在信息史上留下浓墨重彩的一笔。

推荐阅读更多精彩内容