
“波粒二象性”是微观世界的专属特性。对于由无数粒子组成的宏观物体,其波动性由于德布罗意波长极短而完全退耦,其行为由经典物理学完美描述,表现为我们熟知的粒子或物体的形态。而超导性可以被看作是宏观物质波动性的一种体现,更准确地说,是宏观量子现象的直接结果。
*波粒二象性
“波粒二象性”是量子力学的基石,它指出微观粒子(如电子、光子、原子等)同时具有粒子和波的特性。具体来说:
粒子性:体现在它们是一份一份的、不可分割的,有确定的质量和能量。例如,光电效应中,光以“光子”的形式一份份地打出电子。
波动性:体现在它们的行为可以用波函数来描述,具有干涉和衍射等波特有的现象。例如,双缝实验中,单个电子可以同时通过两条缝并与自己发生干涉。
为什么宏观物体没有明显的波动性?
宏观物体是由海量(比如10^23个)的微观粒子(原子、分子)组成的。根据量子力学,这些物体也拥有一个“物质波”,其波长由德布罗意公式给出:
λ = h / p
λ:德布罗意波长
h:普朗克常数(一个非常非常小的数)
p:物体的动量 (p = m*v,质量 x 速度)
关键点在于普朗克常数h极小。 对于一个宏观物体,它的质量m非常大,导致动量p非常大,因此计算出的德布罗意波长λ就变得极其微小,远远小于原子尺寸,以至于在现实中完全无法探测到其波动效应。
*超导状态
库珀对
在常规超导体中,单个电子并不是主角。由于一种复杂的相互作用(电子-声子相互作用),两个电子会结合成一个名为“库珀对”的复合粒子。
注意: 库珀对是玻色子,而单个电子是费米子。
玻色-爱因斯坦凝聚
费米子(如单个电子)遵循泡利不相容原理,不能处于相同的量子态。这就是为什么原子中的电子分布在不同能级上。
玻色子(如库珀对、光子)没有这个限制,它们都倾向于聚集在同一个最低能量态上。当温度足够低时,所有的库珀对会凝聚到这个单一的量子态中,形成一个“宏观量子态”。这个过程就是玻色-爱因斯坦凝聚。
这体现了“波动性”
在量子力学中,每一个粒子都对应一个波函数。波函数的相位决定了波的干涉行为。
在正常情况下,金属中数十亿个电子的波函数各有各的相位,杂乱无章,相互抵消,所以整体上没有任何相干波动性可言。
在超导状态下,所有库珀对都凝聚到了同一个量子态,这意味着它们拥有一个共同的、相干的波函数。这个波函数扩展到整个超导体,是一个宏观尺度的波函数。
这正是波动性的终极体现: 一个宏观物体(整个超导体)的行为,由一个单一的量子波函数来描述。这个波函数所展现出的量子特性,在宏观尺度上被放大并直接观测到。
超导性不是单个电子波动性的简单叠加,而是通过“库珀对”和“玻色-爱因斯坦凝聚”这两个关键步骤,将无数微观粒子的波动性同步、放大,最终形成一个相干的宏观量子波。我们观测到的零电阻、迈斯纳效应和磁通量子化等神奇现象,都是这个宏观波函数及其波动性在宏观世界的直接表现。
2025年诺贝尔物理学奖获奖论文的核心成果聚焦于宏观量子力学隧穿效应与能量量子化的实验验证,由John Clarke、Michel H. Devoret和John M. Martinis三位科学家在1984-1985年间完成。
他们的研究通过超导电路实验,首次证明了一个由数十亿对电子组成的宏观系统(尺寸可置于掌心)能像单个原子一样遵循量子力学规则,具体表现为:
量子隧穿效应:
超导电路中的带电粒子系统通过隧穿突破零电压状态的势垒,如同微观粒子“穿墙而过”。这一现象通过电压变化被直接检测到,验证了宏观尺度量子行为的可能性。
能量量子化:
系统仅以特定能量单位吸收或释放能量,完全符合量子力学的预测。这一发现将量子力学从微观粒子领域拓展至可操控的工程系统,为量子计算和量子传感器技术奠定了基础。
实验设计:
研究采用约瑟夫森结(超导体间夹绝缘层)构建电路,通过精确控制电流特性,使数十亿电子同步行为,形成宏观量子态。该成果直接挑战了“量子效应仅适用于微观世界”的传统认知,为“薛定谔的猫”思想实验提供了实验版本。
值得注意的是,John M. Martinis后续在谷歌量子实验室的工作(如53量子比特处理器实现“量子霸权”)进一步推动了该领域的应用发展。2025年诺贝尔委员会评价其“将量子世界从思想实验带入可设计的工程系统”,凸显了基础研究与技术转化的双重意义。
参考文献
[1] Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79(8), 2554-2558. [DOI:10.1073/pnas.79.8.2554]
[2] Hinton, G. E., & Sejnowski, T. J. (1986). Learning internal representations by error propagation. Parallel Distributed Processing: Explorations in the Microstructure of Cognition, 1, 318-362.
[3] Hinton, G. E., Krizhevsky, A., & Wang, S. D. (2012). ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems, 25, 1097-1105.