数学家说:物理学是如此重要,不能全留给物理学家。物理学家说:信息和计算是如此重要,不能全留给计算机科学家……
(图源:文章头图及封面图片版权所属:NASA/Sonoma State University/Aurore Simonnet.)
撰文 | 施郁
编辑 | 邸利会
量子信息学是量子力学与信息科学、计算机科学的交叉学科。
美国生物学家Edward Wilson有一段话,很好地说明了交叉学科的重要意义。他说:“科学是我们时代最大胆的形而上学,是人类的创造,相信如果我们有梦想,坚持去发现,解释,再梦想,从而不断进入新的领地,让世界显得更清晰,我们就能掌握宇宙的真正的奇异之处,而这些奇异之处将会被证明是互相联系,有意义的。”(引文由作者译自英文,下同。)
不同学科的科学家给交叉学科带来各自的特长。
大数学家希尔伯特有句幽默的名言:“物理学如此重要,不能留给物理学家(Physics is too important to be left to physicist)。”希尔伯特对广义相对论的数学形式做出过贡献,当时让爱因斯坦感到很大压力。
我们也可以说,生物学是如此重要,不能全留给生物学家。事实上,正是物理学家协助开启了分子生物学。
我们还可以说,信息和计算是如此重要,不能全留给计算机科学家。
本文回顾物理学家是如何开启了量子信息学。在此道路上,物理学家也对经典的信息科学做出了贡献。
当然,物理学对信息技术提供了硬件基础。电子计算机的器件(晶体管、存储器等)中的电子服从量子力学。但是,量子信息并不是指信息技术的量子物理基础。量子计算也不是指关于量子力学的计算问题,不是计算物理。这些固然是重要的领域,但不是所谓的量子计算与量子信息。
信息是什么?
信息的英文是information。顾名思义,Information is that which informs(信息是被告知的东西)。
信息是讯息(message)的内容,是对我们在获得该讯息之前对它的无知程度的度量,是对不确定性的降低。当我们对于某件事的不确定性越大,就需要越多的信息来消除这个不确定性。
信息的一个性质是,它可以编码成各种形式。比如,同样的思想可以用不同语言来表达。信息论中,信息用一个字符串来表达。
信息不仅是个抽象的数学概念。信息离不开物理载体,又可在不同物理载体之间转换。信息处理过程是物理过程,受物理规律主宰。
比如,由声音传递的信息取决于空气和耳膜的振动,由文字表达的信息取决于粉笔灰或墨水的分布;磁存储的信息取决于磁畴的状态;生命信息取决于遗传物质中四种碱基的分布;神经网络中的信号取决于神经元的状态。
1991年,德裔美国人Rolf Landauer提出一个口号:“信息是物理的(Information is physical)”,倡导从物理的角度研究计算和信息。
1990年,美国人John Wheeler提出一个口号:“物质来自比特(It from bit)”。Wheeler和Landauer的思想影响了最早研究量子信息的一批人,可以称他们为量子信息学的祖父。
顺便提一下,1972年,Phil Anderson曾提出一个口号:“多者异也(more is different)”,是说多体系统会展现出少体系统没有的新性质。
综合这些思想,从信息和量子信息的角度考虑物理定律的层展(emergence),也是一个有意思的方向。
麦克斯韦妖
最早进入物理学的信息问题,可能是麦克斯韦妖佯谬。
1867年,麦克斯韦在一封信里提出了这个佯谬。在1871年出版的《热的理论(Theory of Heat)》一书中,他做了详细论述。
考虑封闭容器内处于恒温的气体,他写道:“假设这样的一个容器分成两半,A和B,隔板上有一个小洞,有一个有意识的存在(being)能够看到单独的分子,能够关闭或打开这个洞,从而让较快的分子从A运动到B,让较慢的分子从B运动到A。因此他不需要做功,就能提高B的温度,降低A的温度。这与热力学第二定律矛盾。”
1879,开尔文勋爵(William Thomson)将麦克斯韦假想的being称为麦克斯韦妖。

麦克斯韦(James Clerk Maxwell,1831年6月13日-1879年11月5日)
利奧·西拉德的历史性贡献
希特勒在德国上台后,有几位匈牙利犹太人从德国移居美国,包括数学大师冯诺伊曼、物理诺奖得主维格纳和伽博、氢弹之父特勒(这些头衔是后来成就的),利奧·西拉德(Leo Szilard,1898年2月11日-1964年5月30日)是另一位,虽然不及前几位有名(维格纳为此感到痛苦),但是他对于人类社会历史进程的影响不一定在他们之下。
原子核裂变发现后,西拉德就想到链式反应和原子弹的可能性。为了敦促美国制造原子弹,他找到柏林时期的老朋友爱因斯坦,为他起草了致罗斯福总统的信。原子弹造出来后,西拉德又致力于制止使用原子弹。战后他从事生物学研究,是Salk研究所创建人之一。
一战时,20岁的西拉德在奥匈军队当兵,但是在上前线之前,染上了西班牙流感,被送到医院,而他所在的部队后来几乎被全歼。或许是西班牙流感救了他的命。
1929年,作为博士论文,西拉德研究了麦克斯韦妖问题。他用比特(容器的左右,他没有用比特这个名词)表示分子的位置状态,涉及到了信息(也没用这个词)。他提出麦克斯韦妖测量分子状态时,消耗能量,熵增加了𝑘ln2,抵消了气体分子的熵减少。这里𝑘代表玻尔兹曼常数,ln是以2为底的对数。
西拉德还提出一种利用信息的热机,也就是说,可以从信息提取功。我们用美国物理学家、信息理论学家Charles Bennett在1987年提出的版本来讨论——
 考虑一个恒定温度的热库接触的小车,以及一串小隔间组成的传送带,每个小隔间里面有一个分子。假设事先知道每个分子的位置状态(信息),也就是在小隔间的左半部或者右半部。相应地,就可以设计机械,利用活塞向右半部或者左半部移动,分子所在的空间增加到整个小隔间。从而分子总是对外做功,驱动小车运动。也就是说,信息转化为了功。
如果事先不知道分子的位置,平均做功为零。 
信息论
1948年,克劳德·艾尔伍德·香农(Claude Elwood Shannon,1916年4月30日-2001年2月26日)借助熵的概念,提出了信息论。
考虑一个字母表,由a1,a2, ⋯, an组成,每个字母出现的概率分别是p1,p2, ⋯, pn,p1+p2+⋯+ pn=1。
香农定义了信息熵: 𝐻=-p1log_n(p1) -p2log_n(p2) ⋯-pnlog_n(pn)。这里log_n代表以n为底的对数。香农证明了这𝑛个字母组成的讯息可以压缩到n𝐻比特。也就是说,信息熵代表平均每个字母的信息量,定量刻画了信息存储与传输所需的资源。
我们可以看出,如果𝑝1=1, 其他的pi=0,也就是说只有a1这一个字母出现,那么𝐻=0, 也就是说没有信息量;如果每个𝑝𝑖都等于1/n, 那么𝐻=1,这是最大值。 
Landauer原理
从1930年代开始,计算机的基础理论和技术有很多发展,本文后面将简述。
1961年,Rolf Landauer在IBM工作时提出了Landauer原理:每删除一个比特的信息,环境的熵至少增加𝑘ln2,也就是说,至少需要耗散能量𝑘𝑇ln2。我们知道熵乘以温度T就是热量,也就是耗散到环境的能量。
1973年,Bennett提出可逆计算的概念,指出原则上不需要能耗。虽然很多逻辑运算是不可逆的,比如2+3和1+4都等于5,因此从输出结果5,不能唯一确定输入。但是不可逆运算可以嵌套在可逆运算中,也就是将输入信息也当作输出结果的一部分。1982年,他提出可逆图灵机模型。图灵机是最简单的计算模型。 
在这些工作的基础上,1987年,Bennett给出了麦克斯韦妖佯谬的解决方案——对分子状态的测量本身可以不消耗能量,测量结果存储在妖的记忆中,气体的熵减少由妖的记忆的熵增加补偿。但是妖的记忆有限,为了存储新的测量结果,需要删除旧的记忆,因此必须将熵转移到环境,也就是说,必须耗散能量到环境中去。
因此耗散的能量不是来自测量信息,而是来自删除信息。当然,如果将气体、妖、环境一起考虑,总熵总是不减少的。
信息与能量
作为对前述若干概念的消化,我们看一下信息与能量的关系。
如果事先知道某讯息(message,一串比特,如各分子的位置)的内容,删除这个讯息不需要消耗能量。
例如,考虑一个盒子中有一个分子,如果知道它在盒子的哪半边,可设法用一个小盒子包住它,它对小盒子的每个壁都有碰撞,平均做功为零,因此我们在不做功的情况下将它转移到事先选好的盒子的一半(事先选定左边或者右边),也就是删除讯息。因此,知道信息后,可以不费能量将其删除。而且,前面说过,还可以利用它,让分子对外做功。 
但是,如果不知道分子位置时,我们只能统一地将将盒子体积压到一半(事先选定左边或者右边)。这需要付出能量。
计算机极简史
19世纪的查尔斯·巴贝奇(Charles Babbage,1791年12月26日-1871年10月18日)设计了两个机械计算机,虽然都没能实际完成。
19世纪20年代,Babbage设计了计算多项式函数的差分机。
1837年,他又设计了可编程的机械计算机Analytic Engine,包含了计算机的主要元素。1941年,有人实现了他的设计。

Babbage制作的AnalyticEngine的模型。(图源:Wiki)
诗人拜伦的女儿Ada Lovelace为Analytic Engine写了程序,成为历史上第一位程序员。
Babbage和Lovelock的照片曾经放在一起,作为英国50英镑新钞票上的候选人物。但最终,另一位候选人图灵(Alan Turing)胜出。


1937年,图灵提出了图灵机、普适图灵机和图灵假说,严格定义了计算和程序的概念。图灵假说是说,存在普适图灵机,可以模拟任何图灵机。这就是说,存在普适计算机,用程序就可以实现任何计算。 
1939年,物理学家John Vincent Atanasoff与他的学生Clifford Berry建造了第一台电子计算机。这是一台特定目的的计算机,不能编程。它用2进制和布尔代数,能计算29个联立方程。硬件上,它由电子真空管实现计算,用电容器作内存,没有中央处理器(CPU)。
物理学家 John Mauchly 和 J. P. Eckert设计了世界上第一台电子通用计算机,即ENIAC (电子数值积分计算机,Electronic Numerical Integrator And Computer),1946年建成。ENIAC的第一个用途是冯诺依曼和乌拉姆的氢弹计算。
Machley多次访问过Atanasoff,但是1944年之前,没有告知后者,自己也在造计算机。这使得Machley后来没有获得专利。
电子计算机飞速发展。1950年代,每秒做1000次浮点运算。而现在的速度是148.6PFLOPS(P = 10^12)。1965年,Gordon Moore总结出所谓的“Moore定律”:单个集成电路芯片上的晶体管数目大约每两年翻一番。从下图可以看出,Moore定律延续多年。

晶体管越来越小,越来越快。如此下去,单个比特只需要原子尺寸。但是在原子尺寸,量子效应将起支配作用,适用于经典计算机的Moore定律也就不能延续。
所以,一个思路就是,变不利为有利,干脆用量子力学作为新的计算(逻辑)原理。利用量子力学的原理,特别是量子态叠加原理,完成计算任务,处理和传递信息,这就是所谓的量子计算与量子信息。 
量子力学基本问题的研究
量子计算与量子信息又与量子力学基本问题密切相联。
量子纠缠是超越任何经典关联的量子特性,研究始于爱因斯坦等人,经过戴维·玻姆(David Bohm,1917年12月20日-1992年10月27日)等人,后来由约翰·贝尔(John Bell,1928年6月28日-1990年10月1日)取得突破。
单量子系统在这些研究中体现出重要性。以前,正如薛定谔所说,“我们从来不用单个电子或原子或小分子做实验。在思想实验中,我们有时候假设能够做,这不可避免导致奇怪的后果……”事实上,当年的思想实验今天已经成为真实的实验,对于奇怪后果的探究导致量子物理基础和量子信息的进展。
量子计算与量子信息的兴起
1982年,费曼提出,用经典计算机模拟量子过程需要指数级资源,而量子计算机则可以有效地模拟量子过程。
1985年,英国物理学家David Deutsch提出量子图灵机和普适量子图灵机的概念。1989年,他又提出由量子门组成的量子计算的线路模型。
作为一个有实用意义的突破,1994年,美国人Peter Shor提出有效解决素数因子分解(寻找奇数的素数因子)的量子算法。在经典计算中,这个问题是一个NP问题,也就是说,需要的时间不是数字的二进制位数n的多项式函数。事实上,需要的时间是exp(O(n^3(log(n))^(2/3) ))。而Shor的量子算法需要的时间只是O(n^2 log(n) loglog(n))。f=O(g)的意思是,|f/g|介于两个有限正数之间。
量子计算的算法基于纠缠态的运用。量子纠缠也导致量子通信,比如量子隐形传态。而量子密码的某些方案基于海森堡不确定关系,某些方案基于量子纠缠。
2017年,意大利的国际理论物理中心将狄拉克奖授予Bennett,Deutsch 和Shor,以表彰他们用量子力学的基本概念解决计算和信息的基本问题,从而将量子力学、计算机科学和信息联系在一起。 
小结
信息是物理的。因此经典计算和经典信息基于经典物理,而量子物理导致量子计算和量子信息。突破“Moore定律”的需要,经典信息和经典计算的量子推广,量子力学基本问题的探究,形成合力,催生了量子信息和量子计算。
(延伸阅读:施郁,
揭开量子的神秘面纱
。)

注:
本文作者施郁是复旦大学物理学系教授,中国科学技术大学兼职教授。文章是作者的课程《量子信息和量子计算》的绪论讲稿。从2月27日起,每周四9:55开始,他将在哔哩哔哩直播该课程。直播间链接:https://live.bilibili.com/21868825
直播间二维码:
(除头图外,文中图片均由作者提供)
赛先生
启蒙·探索·创造
如果你拥有一颗好奇心
如果你渴求知识
如果你相信世界是可以理解的
欢迎关注我们
投稿、授权等请联系
继续阅读
阅读原文