谁也没想到,一场三十多年前的数学“打赌”,会最终由随机性拿下胜利。
上世纪80年代末,两个当时就已经在数学圈赫赫有名的人物——Peter Sarnak 和 Noga Alon,在瑞士洛桑的一次会议上因为一个问题争了起来:最优的“扩展图”(expander),到底是稀有还是常见?
这关系到图论、谱理论、概率方法、甚至与量子物理接轨的随机矩阵理论。

问题的核心只有一个:对于一个固定度数的正则图,其“扩展性”最强,也就是第二特征值最小的那些图——所谓的拉马努金图(Ramanujan 图),在所有正则图中占比是多少?
正则图(Regular Graph),指的是每个节点的度数都相同的图。也就是说,图中每一个点都连接着相同数量的边。如果每个点都连接着 d 条边,这样的图就叫做 d 正则图。
Sarnak认为稀有。他和Lubotzky、Phillips用到数论深水区的拉马努金函数,才能构造出少量例子。而Alon则站在概率那一边:“你给我一个大桶的随机图,我手抓一把,多半就是拉马努金图。”
这个问题,在图论圈子里成了一道横贯三十多年的影子。
技术焦点是1980年代提出的一个下界——Alon–Boppana界。对于一个每个节点都有d条边的正则图来说,其第二特征值不可能小于

能达到这个界限的图,就是“理论上最好的扩展图”。
Sarnak三人组当年用拉马努金函数中的谱结构硬核造出了达到下界的图,但过程复杂得近乎不可复制。而Alon的态度可以说是挑衅:“你费尽心思构造,我掷骰子就能中。”
2008年,有人用大规模计算试着统计:这些最优图到底在全集中占多少?结果模糊不清。有的图是拉马努金图,有的不是——这就意味着答案既不是“几乎全部”,也不是“几乎没有”,而是“恰好有一部分”,也就意味着:没有捷径,只能通过精确估算谱分布来破解。
而真正的突破,来自另一个战场:随机矩阵理论。
这个领域的源头是1955年,物理学家Wigner想用矩阵来模拟重元素原子核的能级分布。他注意到,无论矩阵里的元素是正负一,还是任意实数,它们的特征值分布都呈现出惊人一致的统计规律。
他猜想,不管你用什么样的随机方式生成一个矩阵,只要它足够“随机”,其特征值的统计行为就会“趋同”——这个大胆的想法,被称为普适性猜想。
几十年来,这个猜想在不同类型的随机矩阵中被不断验证。而在哈佛大学,Horng-Tzer Yau成了这个方向的核心人物。
2013年,Sarnak找上门来,给了Yau一个新的方向:你来看看“随机正则图”的邻接矩阵,是不是也满足普适性。
这个挑战难度极高。因为正则图的邻接矩阵没有高斯矩阵那种“良性”,它是离散的、结构化的、限制死的。但Yau不信邪,他和学生Jiaoyang Huang发明了一种策略:扰动-回归法。
他们先用一个轻微的“扰动”,把正则图的邻接矩阵变成一个更好分析的随机矩阵,再计算后者的特征值分布,然后再证明这种扰动对原矩阵谱值影响极小。换句话说:先用变形的模型“偷看答案”,再推导回真实模型。
2020年,他们拿下了第一阶段成果:对于边数足够多的正则图,其第二特征值确实服从普适分布。
但要解决Alon和Sarnak的赌局,必须推到所有正则图。差最后一步。
关键变化发生在2022年秋。
Theo McKenzie,这位刚入哈佛的博士后,成为第三位合作者。他接过前人已铺设好的全部工具链,迅速补课,精准切入。他的关键贡献,是补上了一个叫“回路方程”的结构。
这是一个描述谱分布行为的精细工具,用来捕捉不同矩阵之间的差异。Huang其实已经在研究这个方向,只是没推到足够严密。McKenzie的加入,把整个框架推进到了可闭合、可计算、可验证的层面。
2023年底,三人联手完成最终证明:所有正则图的特征值都满足Wigner的普适性规律。
这就意味着:你随便抓一张正则图,其第二特征值的分布,是已知的。这就能精确算出,有多少比例的图是拉马努金图。
结果是——69%。
三十五年的争论落幕。不是极少,也不是绝大多数。是“比一半多一些”。
Sarnak承认自己赌输了,但笑着说“这是我收到的最好的圣诞礼物”;Alon则得意地说“虽然我们都错了,但我离真相更近一点”。
赢家不是某个人,而是数学本身。更准确地说,是随机性、是普适性、是谱结构背后的统计规律。
人类最费劲造出来的东西,在随机世界里却随手可得。