⚠️ Alpha内测版本警告:此为早期内部构建版本,尚不完整且可能存在错误,欢迎大家提Issue反馈问题或建议。
Skip to content

导读

当 GPT-4 在数学竞赛中击败人类选手,当 o3 在 PhD 级别的科学推理测试上超越专家,我们惊叹于 AI 的"智能"。但很少有人追问:这些系统真的在"推理"吗?

更深层的问题是:推理是什么?

一旦你开始认真思考它,你会发现:人类的推理可能只是模式匹配的幻觉,逻辑推理在物理世界中可能根本不存在,我们所谓的"理解"可能只是压缩数据的副产品。

这不是一本教你如何使用AI的书。这是一本关于为什么AI能推理、为什么不能推理、以及推理本身是什么的书。

本书不会给你答案。但它会带你走进推理的边界——那些让图灵、哥德尔、香农彻夜难眠的问题。


为什么要读这本书

如果你满足于"AI很神奇",这本书不适合你。

如果你想知道:

  • 为什么千亿参数的大模型在简单的逻辑链上会崩溃?
  • 为什么CoT(思维链)能提升准确率,但最终会收敛回先验?
  • 为什么P≠NP不是关于"快慢",而是关于宇宙的不对称性?
  • 为什么任何足够强大的推理系统都包含它无法解决的问题?

那么,这本书是为你写的。

我们不会停留在"AI能做什么"的表面,而是深入到"AI为什么能做、为什么不能做"的底层机制。上卷用历史叙事和可运行的实验把直觉建立起来;下卷用严格的形式语言把直觉的地基夯实。


这是一次建构,而非综述

本书的叙事围绕四个原创研究工作展开。它们不是对前人成果的总结,而是笔者为理解推理本质而进行的探索性建构:

1. QMCB / OpenXOR:NP问题的连续相图

传统复杂度理论告诉我们一个问题"属于"P还是NP,但无法量化一个具体实例有多难。OpenXOR框架突破了这个限制,将NP问题的可解性从二元判决转化为连续相图。

对于规模L、约束密度d的实例,可解概率μ(L,d)满足:

μ(L,d)=12(1erf(ddc(L)0.1007))

其中临界约束密度 dc(L)=0.0809ln(L)+0.501

这个公式揭示:可计算性不是二元的,而是概率性的。NP不是一堵墙,而是一片有梯度的雾。在雾的边缘(μ≈0.5),问题处于可解与不可解的量子叠加态。

→ [DOI: 10.13140/RG.2.2.22376.64006]


2. 永霖公式:AI推理的本质性不完备

为什么大模型在长链推理中会失败?不是因为参数不够多,而是因为对象层封闭,元层断裂

永霖公式证明:无论推理链多长,最终都会收敛回先验锚点:

limnΠ(n)(s)=A,AA
  • Π(n)(s):模型在第n步的推理分布
  • A:训练数据的先验锚点
  • A:真实的正确答案

模型在对象层(生成推理链)可以自洽运作,但在元层(验证推理是否正确)无法跳出自身参数的限制。这与哥德尔不完备定理存在结构同构——任何足够强大的形式系统都包含它无法证明的真命题。

CoT的价值不在于"越长越好",而在于延长有效推理窗口——收敛之前的那几步,才是真正的推理。

→ [本书第12章推导解释原创]


3. ADS(自适应双搜索):启发式权重的信息论化

在搜索与推理中,如何动态平衡"跟随启发式"和"自主探索"?传统方法用固定权重α,但最优α随状态的不确定性动态变化。

ADS将α信息论化,通过当前状态动作分布的熵自适应调整搜索策略:

αt=log(1HtHmax)

其中 Ht 是当前输出分布的熵,Hmax 是均匀分布的最大熵。熵高(不确定性大)时 αt 增大,形成信息论势垒排斥高熵状态,迫使搜索坍缩到低熵流形;熵低时 αt 趋近于零,信任启发式快速前进。这实现了姚期智MiniMax定理在自适应搜索中的具体化——在不确定性环境中找到最优探索-利用混合策略。

→ [DOI: 10.13140/RG.2.2.17091.16164]


4. Collins优化器:触及压缩的物理极限

Adam、AdamW等优化器需要为每个参数维护动量和二阶矩,内存开销是参数量的3倍。能否压缩优化器状态?

Collins通过随机化实现O(1)状态压缩,安全压缩比 copt34

copt=dlog2(d/δ)

其中d是参数维度,δ是容错率。这个极限来自信息论的率失真理论——你无法在不损失信息的前提下无限压缩。

实验验证:在 Yi-34B-Chat 上,34倍压缩后性能损失<2%,但64倍压缩后崩溃。这不是工程问题,而是数学边界。

→ [DOI: 10.13140/RG.2.2.23802.04809]


5. 自注意力的因果拓扑重解释:一个思想实验

Self-Attention 的标准解读是信息检索类比(Query-Key-Value)。但如果从因果建模出发,可以推导出同一个数学结构——而且赋予其更深的语义。这不是一个已被证明的定理,而是一个正在寻找精确刻画的猜想。

设位置 i(果)和位置 j(因)的投影向量分别为 qi=WQxi(行投影/果建模)和 kj=WKxj(列投影/因建模),两者的外积编码了因果假设的完整结构:

Cij=qikjRdk×dk

对共享维度做爱因斯坦求和(trace),得到因果假设强度标量:

Aij=tr(Cij)=qikj

再对候选原因做 softmax,得到因果后验分布——即标准注意力矩阵。

这个推导揭示了三件事:(1)WQWK 不是工程设计,而是因果不对称性的必然编码;(2)softmax 是对候选原因的贝叶斯后验归一化,而非竞争注意力的工程技巧;(3)GPT 的单向 causal mask 等价于显式的 do 操作——do(futurepast),在注意力空间上强制施加有向无环图(DAG)约束。

这将 Transformer 从"强大的函数拟合器"重新解释为隐式因果推断机器,并为注意力头的可解释性分析提供了因果语言。

实验验证:用 GPT-2 在因果句 "Because the storm intensified, the ship finally sank." 上提取注意力,最后一层平均 DAG 得分 = 0.810,显著高于随机基线 0.5。这不是拟合出来的,是从架构归纳偏置里长出来的。

这个思想实验目前悬而未决:注意力矩阵能否构成严格的结构因果模型(SCM)?多头注意力的因果分工是什么?Transformer 被锁在 Pearl 因果阶梯的第一、二层——第三层(反事实)对它永远关闭,这意味着什么?

→ [本书第9章思想实验篇,原创]   → [第9章番外篇:注意力即因果](/chapter9/bonus)


你会看到什么

本书分为上下两卷,逻辑上互为镜像:上卷给直觉,下卷给基础。可以独立阅读,合在一起才是全貌。


上卷:推理的历史演变(第1–13章)

上卷沿历史线索前进,用问题驱动的方式展开——每一章都从一个让人不安的问题开始,沿着人类试图回答它的历史足迹走下去。

第一部分:推理的起源(第1–6章)

从热力学第二定律出发,理解为什么推理是生存的必需品。我们会看到符号系统如何崛起又如何崩塌,向量空间如何重新定义"理解",流形假设如何解释高维数据的隐秩序,以及为什么统计相关性永远不等于因果推理。

第二部分:推理的机制(第7–11章)

深入 AI 推理的核心机制。P vs NP 揭示宇宙的计算不对称性,启发式算法在"差不多对"和"精确解"之间签下契约,Transformer 用注意力机制重构推理的基础设施,MCTS 在不确定性中搜索最优路径,Collins 优化器触及效能化推理的物理极限。

第三部分:推理的边界(第12–13章)

永霖公式揭示 AI 推理的本质性不完备,哥德尔定理、停机问题、元层断裂共同勾勒出推理王国的地图。边界不是终点,而是设计的起点。

番外篇

  • 第9章番外:注意力即因果 —— 从因果建模出发推导出 Self-Attention 的数学结构,揭示 Transformer 作为隐式因果推断机器的本质
  • 第13章番外:暗线 —— 上卷十三章的隐藏结构:一条从未被明说的因果逻辑演绎链

下卷:推理的形式演绎(第14–22章)

下卷从地基开始重建。它不沿历史走,而是沿逻辑的必然性走——每一章的出现都被前一章留下的问题所逼迫,没有任何一章是"顺便聊聊"。

风格是严格的:定义精确,论证完整,不接受"大概如此"。但叙事是在场的:每个定义出现之前,你会知道为什么我们需要它。

演绎链:

第14章建立形式系统的地基——命题、推断规则、公理、证明,以及句法与语义的根本分离。这是下卷所有章节的公共起点。

第15章问:这台机器可靠吗?哥德尔的两个不完备定理精确回答了这个问题,并划出了形式系统能力的硬边界。

第16章拿走结构规则里的"收缩":每个假设恰好用一次,推理变成资源管理。这是线性逻辑,也是量子计算和内存安全的形式基础。

第17章把真值从 {0,1} 扩张到 [0,1],推断规则变成概率传播。Cox 公理证明:理性信念在不确定性下的唯一相容表示,就是概率论。

第18章在逻辑里引入干预算子 do,区分观测、干预、反事实三个层次。这是 Pearl 因果阶梯的形式化——从数据推不出因果,除非你愿意明确说出结构假设。

第19章把推导树的深度与计算复杂度等同起来。P/NP 不是关于机器速度,而是关于问题内在结构的定理。停机问题与哥德尔的自指在这里重新相遇。

第20章给"差不多对"一个精确的数学定义:可采纳性、一致性、PAC 学习框架。启发式不是工程妥协,是一份有形式保证的合同。

第21章把学习看作逆推断:给定观测到的定理,反推最简洁的公理集合。泛化是压缩的另一种说法,奥卡姆剃刀是信息论定理,不是哲学建议。

第22章是终点,也是开口:当推理系统足够强大,它开始推理关于自身的命题。Curry-Howard 对应、不动点定理——这是目前没有答案的地方,也是值得继续走下去的地方。


这本书的使用方式

如果你是研究者:每章的"悬而未决"部分列出了开放问题,五个原创研究项目提供了可以继续深挖的方向。

如果你是工程师:上卷多数章节有"自己动手"部分,提供可运行的代码实验。下卷的论证是你理解为什么某些工程直觉是对的、某些是错的的理论基础。

如果你是学生:从第1章开始顺序阅读上卷。读完上卷再进入下卷——上卷给你问题,下卷给你工具。

如果你只是好奇:直接跳到你感兴趣的章节。上卷各章尽量自包含;下卷建议从第14章开始,因为它是后续所有章节的地基。


致谢

梁永霖:一个让作者走出自怜的孩子。永霖公式以他命名,不是因为那个公式,而是因为:被允许。

王乐祎:我的爱人,生活中的童话编织者。这本书写作过程中最难的时刻,是他把我拉回来的。

Datawhale团队:提供了在线出版、发行与传播的平台,让这本书能以开源的方式与读者见面。

所有推理王国的探险家们:在GitHub上提Issue、提PR、发消息告诉我哪里没说清楚的读者——你们的阅读让这本书继续生长。

感谢在推理边界上探索的先驱者——图灵、哥德尔、香农、Pearl——你们的工作是这本书的地基。


让我们进入推理王国。