最近 X 上大家围绕这个话题吵得挺凶。有人说 LLM 肯定能推理,因为它确实能帮我们做数学和写代码;但也有人反驳说 LLM 根本不会推理,它们压根就不是为此设计的,它们做的无非是在训练数据里"背书"。
说实话,我不认为 LLM 完全不具备推理能力;事实上,我觉得至少有三条可能的路径可以帮助它们获得这种能力:
-
扩展就是一切: 我们可以什么都不改,就用当前的 LLM 架构,继续扩展——算力、数据、模型规模全部拉满,让模型在不断变大的过程中去学习和理解训练数据背后的深层逻辑模式与语法结构;然后我们等待"奇迹"发生就好。但这个奇迹不会在指数级扩展曲线走到尽头之前出现;
-
人类的思维模式就是一切: 我们可以尝试将系统 1 和系统 2 思维引入当前的 LLM:系统 1 快速、直觉驱动,擅长快速决策,和目前的 LLM 很像;而系统 2 缓慢、深思熟虑,恰恰可以作为 LLM 解决复杂推理任务的完美补充系统。
-
树搜索就是一切: 我们可以将树搜索集成到当前的 LLM 中。我们已经看到 deepseek-prover-v1.5 借助 MCTS 取得了成功,AlphaProof-2 则通过结合树搜索的混合方法同样表现优异;两者都取得了非常出色的结果,这说明树搜索对提升模型的复杂问题求解能力是切实有效的。(由于我自己对这块了解不算深入,非常推荐 Aidan Mclau 写的 "The Bitter-er Lesson",读完你会对树搜索的重要性和潜力有更深的认识!)
