导读
当 GPT-4 在数学竞赛中击败人类选手,当 o3 在 PhD 级别的科学推理测试上超越专家,我们惊叹于 AI 的"智能"。但很少有人追问:这些系统真的在"推理"吗?
更深层的问题是:推理是什么?
一旦你开始认真思考它,你会发现:人类的推理可能只是模式匹配的幻觉,逻辑推理在物理世界中可能根本不存在,我们所谓的"理解"可能只是压缩数据的副产品。
这不是一本教你如何使用AI的书。这是一本关于为什么AI能推理、为什么不能推理、以及推理本身是什么的书。
本书不会给你答案。但它会带你走进推理的边界——那些让图灵、哥德尔、香农彻夜难眠的问题。
为什么要读这本书
如果你满足于"AI很神奇",这本书不适合你。
如果你想知道:
- 为什么千亿参数的大模型在简单的逻辑链上会崩溃?
- 为什么CoT(思维链)能提升准确率,但最终会收敛回先验?
- 为什么P≠NP不是关于"快慢",而是关于宇宙的不对称性?
- 为什么任何足够强大的推理系统都包含它无法解决的问题?
那么,这本书是为你写的。
我们不会停留在"AI能做什么"的表面,而是深入到"AI为什么能做、为什么不能做"的底层机制。上卷用历史叙事和可运行的实验把直觉建立起来;下卷用严格的形式语言把直觉的地基夯实。
这是一次建构,而非综述
本书的叙事围绕四个原创研究工作展开。它们不是对前人成果的总结,而是笔者为理解推理本质而进行的探索性建构:
1. QMCB / OpenXOR:NP问题的连续相图
传统复杂度理论告诉我们一个问题"属于"P还是NP,但无法量化一个具体实例有多难。OpenXOR框架突破了这个限制,将NP问题的可解性从二元判决转化为连续相图。
对于规模L、约束密度d的实例,可解概率μ(L,d)满足:
其中临界约束密度
这个公式揭示:可计算性不是二元的,而是概率性的。NP不是一堵墙,而是一片有梯度的雾。在雾的边缘(μ≈0.5),问题处于可解与不可解的量子叠加态。
→ [DOI: 10.13140/RG.2.2.22376.64006]
2. 永霖公式:AI推理的本质性不完备
为什么大模型在长链推理中会失败?不是因为参数不够多,而是因为对象层封闭,元层断裂。
永霖公式证明:无论推理链多长,最终都会收敛回先验锚点:
:模型在第n步的推理分布 :训练数据的先验锚点 :真实的正确答案
模型在对象层(生成推理链)可以自洽运作,但在元层(验证推理是否正确)无法跳出自身参数的限制。这与哥德尔不完备定理存在结构同构——任何足够强大的形式系统都包含它无法证明的真命题。
CoT的价值不在于"越长越好",而在于延长有效推理窗口——收敛之前的那几步,才是真正的推理。
→ [本书第12章推导解释原创]
3. ADS(自适应双搜索):启发式权重的信息论化
在搜索与推理中,如何动态平衡"跟随启发式"和"自主探索"?传统方法用固定权重α,但最优α随状态的不确定性动态变化。
ADS将α信息论化,通过当前状态动作分布的熵自适应调整搜索策略:
其中
→ [DOI: 10.13140/RG.2.2.17091.16164]
4. Collins优化器:触及压缩的物理极限
Adam、AdamW等优化器需要为每个参数维护动量和二阶矩,内存开销是参数量的3倍。能否压缩优化器状态?
Collins通过随机化实现O(1)状态压缩,安全压缩比
其中d是参数维度,δ是容错率。这个极限来自信息论的率失真理论——你无法在不损失信息的前提下无限压缩。
实验验证:在 Yi-34B-Chat 上,34倍压缩后性能损失<2%,但64倍压缩后崩溃。这不是工程问题,而是数学边界。
→ [DOI: 10.13140/RG.2.2.23802.04809]
5. 自注意力的因果拓扑重解释:一个思想实验
Self-Attention 的标准解读是信息检索类比(Query-Key-Value)。但如果从因果建模出发,可以推导出同一个数学结构——而且赋予其更深的语义。这不是一个已被证明的定理,而是一个正在寻找精确刻画的猜想。
设位置
对共享维度做爱因斯坦求和(trace),得到因果假设强度标量:
再对候选原因做 softmax,得到因果后验分布——即标准注意力矩阵。
这个推导揭示了三件事:(1)
这将 Transformer 从"强大的函数拟合器"重新解释为隐式因果推断机器,并为注意力头的可解释性分析提供了因果语言。
实验验证:用 GPT-2 在因果句 "Because the storm intensified, the ship finally sank." 上提取注意力,最后一层平均 DAG 得分 = 0.810,显著高于随机基线 0.5。这不是拟合出来的,是从架构归纳偏置里长出来的。
这个思想实验目前悬而未决:注意力矩阵能否构成严格的结构因果模型(SCM)?多头注意力的因果分工是什么?Transformer 被锁在 Pearl 因果阶梯的第一、二层——第三层(反事实)对它永远关闭,这意味着什么?
→ [本书第9章思想实验篇,原创] → [第9章番外篇:注意力即因果](/chapter9/bonus)
你会看到什么
本书分为上下两卷,逻辑上互为镜像:上卷给直觉,下卷给基础。可以独立阅读,合在一起才是全貌。
上卷:推理的历史演变(第1–13章)
上卷沿历史线索前进,用问题驱动的方式展开——每一章都从一个让人不安的问题开始,沿着人类试图回答它的历史足迹走下去。
第一部分:推理的起源(第1–6章)
从热力学第二定律出发,理解为什么推理是生存的必需品。我们会看到符号系统如何崛起又如何崩塌,向量空间如何重新定义"理解",流形假设如何解释高维数据的隐秩序,以及为什么统计相关性永远不等于因果推理。
第二部分:推理的机制(第7–11章)
深入 AI 推理的核心机制。P vs NP 揭示宇宙的计算不对称性,启发式算法在"差不多对"和"精确解"之间签下契约,Transformer 用注意力机制重构推理的基础设施,MCTS 在不确定性中搜索最优路径,Collins 优化器触及效能化推理的物理极限。
第三部分:推理的边界(第12–13章)
永霖公式揭示 AI 推理的本质性不完备,哥德尔定理、停机问题、元层断裂共同勾勒出推理王国的地图。边界不是终点,而是设计的起点。
番外篇
- 第9章番外:注意力即因果 —— 从因果建模出发推导出 Self-Attention 的数学结构,揭示 Transformer 作为隐式因果推断机器的本质
- 第13章番外:暗线 —— 上卷十三章的隐藏结构:一条从未被明说的因果逻辑演绎链
下卷:推理的形式演绎(第14–22章)
下卷从地基开始重建。它不沿历史走,而是沿逻辑的必然性走——每一章的出现都被前一章留下的问题所逼迫,没有任何一章是"顺便聊聊"。
风格是严格的:定义精确,论证完整,不接受"大概如此"。但叙事是在场的:每个定义出现之前,你会知道为什么我们需要它。
演绎链:
第14章建立形式系统的地基——命题、推断规则、公理、证明,以及句法与语义的根本分离。这是下卷所有章节的公共起点。
第15章问:这台机器可靠吗?哥德尔的两个不完备定理精确回答了这个问题,并划出了形式系统能力的硬边界。
第16章拿走结构规则里的"收缩":每个假设恰好用一次,推理变成资源管理。这是线性逻辑,也是量子计算和内存安全的形式基础。
第17章把真值从
第18章在逻辑里引入干预算子
第19章把推导树的深度与计算复杂度等同起来。P/NP 不是关于机器速度,而是关于问题内在结构的定理。停机问题与哥德尔的自指在这里重新相遇。
第20章给"差不多对"一个精确的数学定义:可采纳性、一致性、PAC 学习框架。启发式不是工程妥协,是一份有形式保证的合同。
第21章把学习看作逆推断:给定观测到的定理,反推最简洁的公理集合。泛化是压缩的另一种说法,奥卡姆剃刀是信息论定理,不是哲学建议。
第22章是终点,也是开口:当推理系统足够强大,它开始推理关于自身的命题。Curry-Howard 对应、不动点定理——这是目前没有答案的地方,也是值得继续走下去的地方。
这本书的使用方式
如果你是研究者:每章的"悬而未决"部分列出了开放问题,五个原创研究项目提供了可以继续深挖的方向。
如果你是工程师:上卷多数章节有"自己动手"部分,提供可运行的代码实验。下卷的论证是你理解为什么某些工程直觉是对的、某些是错的的理论基础。
如果你是学生:从第1章开始顺序阅读上卷。读完上卷再进入下卷——上卷给你问题,下卷给你工具。
如果你只是好奇:直接跳到你感兴趣的章节。上卷各章尽量自包含;下卷建议从第14章开始,因为它是后续所有章节的地基。
致谢
梁永霖:一个让作者走出自怜的孩子。永霖公式以他命名,不是因为那个公式,而是因为:被允许。
王乐祎:我的爱人,生活中的童话编织者。这本书写作过程中最难的时刻,是他把我拉回来的。
Datawhale团队:提供了在线出版、发行与传播的平台,让这本书能以开源的方式与读者见面。
所有推理王国的探险家们:在GitHub上提Issue、提PR、发消息告诉我哪里没说清楚的读者——你们的阅读让这本书继续生长。
感谢在推理边界上探索的先驱者——图灵、哥德尔、香农、Pearl——你们的工作是这本书的地基。
让我们进入推理王国。
