第16章:什么是真正的推理?(LLM 的迷思)
兔狲教授的信
亲爱的小小猪、小海豹:
广州的春天又来了。木棉花开得正盛,珠江的水汽带着暖意飘进黑石屋的书房。
这是第四部分的第一封信。前三部分,我们走过了技术的旅程——从最简单的布尔逻辑,到最复杂的Transformer。
但第四部分,我想换一种方式。不再讲技术细节,而是写信。像朋友聊天一样,聊聊技术背后的东西。
今天的话题是:这些神经网络,真的在"推理"吗?
还是说,它们只是在模仿我们留下的痕迹,像回声一样重复着人类的智慧?
这个问题很重要。因为如果我们不知道AI在做什么,我们就不知道该如何与它相处。
别急,我们慢慢聊。先泡一壶茶,看看窗外飘落的木棉花瓣。
聊天机器人的"啰嗦"与"精准"
小小猪,我记得你上次问我:"教授,为什么AI有时候回答得又快又准,有时候却啰嗦半天说不到点子上?"
你举了个很好的例子:让AI写一个快速排序的代码,它写得漂亮极了。但问它"为什么快速排序比冒泡排序快",它就变得像背书的学生,说了一大堆时间复杂度分析,却没解释清楚那个最核心的直觉——分治的思想,递归的美。
小海豹,你当时补充说:"这就像一个人能背出整本字典,但不一定懂得写诗。"
说得真好。
我坐在黑石屋的窗边,看着康乐园里走过的学生。他们有的在热烈讨论,有的在安静思考。我在想:讨论和思考,有什么区别?
AI的"讨论"是基于统计的——它看过无数对话,知道在某个话题下,人们通常说什么。但真正的"思考",需要理解概念之间的联系,需要因果推理,需要问"为什么"。
核心概念:概率预测 vs. 逻辑推理
小海豹,你读过休谟吧?那个质疑归纳推理的哲学家。他说:我们凭什么认为太阳明天还会升起?仅仅因为过去每天都升起?
LLM本质上在做超大规模的归纳。它从海量文本中学习:"巴黎"后面通常跟着"法国","2+2"后面通常跟着"4"。这是概率预测——基于历史,猜测未来。
但人类的推理不止于此。
当我们说"所有人都会死,苏格拉底是人,所以苏格拉底会死",这不是在预测,而是在逻辑推导。前提正确,推理有效,结论就必然正确。
小小猪,你可能会问:"那AI不能做逻辑推导吗?"
它能模仿。当你问它三段论,它可能答对。但如果你给它一个有矛盾的前提——"所有鸟都会飞,企鹅是鸟,企鹅不会飞"——它可能发现不了矛盾。因为它处理的是符号的统计关系,而不是符号的意义。
这就是著名的"符号接地问题"。AI知道"鸟"和"飞"经常一起出现,但它不知道"鸟"指代什么,不知道"飞"是什么意思。它的知识是文本内部的,不是世界指向的。
贝叶斯主义的温柔提醒
小海豹,我记得你对贝叶斯主义很感兴趣。贝叶斯提供了一种温柔的推理方式:不追求绝对的确定性,而是用新证据不断更新信念。
公式很简单:新信念 = 旧信念 × 新证据的强度。
LLM的训练很像贝叶斯更新——用海量数据更新语言模型的参数。但贝叶斯推理仍然是概率性的,它告诉你"很可能如此",而不是"必然如此"。
这让我想起一个比喻:贝叶斯主义者是谦逊的探索者。他们承认自己的无知,愿意被证据改变。而逻辑主义者是严谨的建筑师,他们从公理出发,构建必然的真理。
也许,真正的智慧在于知道什么时候该谦逊,什么时候该严谨。
思考题:你能举出一个AI"预测"而非"推理"的例子吗?
小小猪,你上次举的例子很好:"如果所有鸟都会飞,企鹅是鸟,那么企鹅会飞吗?"
有些AI会回答"会飞",因为它匹配了"鸟→飞"的高频模式。即使它回答"不会飞",可能也只是在匹配"企鹅不会飞"这个事实,而不是真正进行了逻辑推理。
真正的推理应该是这样的:
- 从"所有鸟都会飞"和"企鹅是鸟"推出"企鹅会飞"
- 但已知"企鹅不会飞"
- 发现矛盾
- 修正前提:"并非所有鸟都会飞"或"企鹅不是鸟"
这是一个元认知的过程——思考自己的思考,发现矛盾,修正信念。
而AI通常停留在第一步的模仿。
推理的三种视角
小海豹,你从认知科学中找到了很好的框架。让我用更生活化的方式重述:
逻辑视角:像下棋的规则。车只能走直线,马走日字。严谨,但僵化。
概率视角:像天气预报。明天有70%的概率下雨。灵活,但不保证。
启发式视角:像直觉判断。"这个人看起来可靠"。快速,但容易错。
LLM主要体现了概率视角,有时模仿逻辑视角,几乎不懂启发式视角。
但人类最珍贵的,也许是在这三种视角间灵活切换的能力:简单问题用直觉,常规问题用概率,复杂问题用逻辑。
致你们:未来的推理科学家
小小猪、小海豹:
写到这里,窗外的木棉花瓣又飘落了几片。春天总是这样,美丽而短暂。
我想告诉你们的是:不要被AI的华丽表现迷惑。
它能写诗,但不一定懂诗意。 它能解题,但不一定懂问题。 它能对话,但不一定懂对话。
真正的推理,需要理解因果关系,需要保持逻辑一致性,需要问"为什么",需要承认"我不知道",需要愿意被证据改变。
这些,是AI还在学习的,也是人类最珍贵的。
下一次当AI回答你时,试着问自己:这是真正的推理,还是只是模式匹配?这个区分能力本身,就是智慧的标志。
我们慢慢来。理解了最重要。
春天快乐。
你们的, 兔狲教授 于中山大学黑石屋 木棉花开的季节
兔狲教授的思考题
给小小猪的实践探索
- 观察AI的"思考":找三个你熟悉的AI,问它们同一个逻辑问题。比较它们的回答。你能看出它们是在推理,还是在匹配模式吗?
- 设计"推理测试":设计5个题目,专门测试逻辑推理能力而非知识记忆。你会怎么设计?
- 记录自己的思考:下次你解决一个复杂问题时,记录下你的思考过程。你用了哪些推理方式?
给小海豹的历史探究
- 推理的演变:从亚里士多德到贝叶斯,人类对"推理"的理解发生了什么变化?每次变化解决了什么问题?
- AI推理简史:调查AI推理的几次范式转换。为什么逻辑主义失败了?概率主义成功了吗?
- 东西方推理观:比较东西方哲学中的推理观念。有什么相同?有什么不同?
给你们的综合思考
- 如果AI真的会推理:如果有一天AI真的具备了逻辑推理能力,那意味着什么?我们会更信任它,还是更害怕它?
- 教育的未来:在AI时代,我们应该教孩子什么?记忆知识更重要,还是培养推理能力更重要?
- 人类的独特性:如果AI能在很多任务上超越人类,那么"推理"还是人类的独特优势吗?什么才是人类不可替代的?
小小猪的笔记:教授的信让我想了很多。我意识到,我有时候也在做"模式匹配"——遇到问题就搜索类似的解决方案,而不是真正理解原理。从今天起,我要多问"为什么"。
小海豹的笔记:教授提到了贝叶斯主义的谦逊。这提醒我,真正的智慧不是知道很多,而是知道自己不知道什么。推理的第一步,也许是承认无知。
兔狲教授的结语:推理的本质,也许不是找到正确答案,而是保持追问的勇气。在这个AI能给出无数答案的时代,会问问题的人,也许才是最珍贵的。
