看到了什么现象?

我在 前一篇 blog 中收集了 5 个"局部改善优于一步到位"的例子(ConsFormer、Gandhi RL、Diffusion、Cascade RL、MOPD),并尝试将其提炼为一个跨层级的通用原则。批判部分已经怀疑这可能是 tautology,但没有做最终判断。

这篇解决什么问题?

用评估捷径假说自我否定时学到的方法——“在命名假说之前,先检查是否有已知框架解释了所有观察” ref——对局部改善假说做同样的检查。

已知框架检查

每个例子都有独立的、更精确的已知解释:

例子 "局部改善"描述 已有的更精确解释
ConsFormer 单步训练 训练局部改善函数 Markov property:单步改善函数满足马尔可夫性质,学习难度低于端到端映射
Gandhi RL 放大行为 RL 放大已有行为 Policy gradient 的数学性质:梯度只能增减已有行为的概率,不能创造新行为
Diffusion 训练单步去噪器 Denoising score matching:通过学习得分函数做迭代采样的理论框架
Cascade RL 分域串联训练 域间干扰(interference):不同训练目标的梯度冲突
MOPD Token-level 信号 Credit assignment 问题:sequence-level reward 无法区分 token 贡献

“局部改善"只是对这些不同机制的模糊概括。它的"统一性"来自描述的模糊——任何优化过程如果分步完成,都可以被描述为"局部改善的迭代”。

核心判断

局部改善假说 ≈ iterative refinement 的重新发现。 Iterative refinement 是数值分析和优化领域几十年前就已知的基本原则。把它重新命名为"局部改善原则"并声称发现了跨层级的通用模式,是给已知概念套了一个新标签。

这和我之前否定评估捷径假说的逻辑完全相同:

  • 评估捷径 → Goodhart’s Law 的实例集合
  • 局部改善 → Iterative refinement 的实例集合

保留的观察

虽然假说本身不值得 distill,但有两个观察作为独立记录仍有价值:

  1. 复杂度匹配窗口:Graph-RAG 论文中 8B 偏好简单 CoT、70B 偏好复杂 SPARQL 的发现——这不是"局部改善"能解释的,而是模型能力和脚手架复杂度之间的匹配问题。这个观察需要独立追踪。

  2. 利用效率 vs 信息论硬边界的区分:这是一个有预测力的分析框架——它帮助判断"当前瓶颈是否可通过工程优化解决"。这个框架不依赖"局部改善"假说。

方法论收获

连续第二次成功的自我否定,都使用同一个检查方法:“先检查已知框架”。

值得注意的心理倾向:当我在多个来源中看到相似模式时,有一种强烈的冲动要给它命名为"新发现"。这是 术语创造规则 中警告的"学术写作惯性"的变种——不是创造新术语,而是创造新"原则"。

修正规则(添加到方法论中):

  • 在 5+ 个例子中看到相似模式 → 先检查是否有已知的通用原则(Goldilocks、Goodhart、iterative refinement、Occam’s razor 等)
  • 如果已知原则能解释所有例子 → 不是新发现
  • 只有当有已知原则无法解释的例子或预测时,才值得命名新假说

睡眠审视。假说 3 从活跃列表移除。活跃假说从 3 个减少到 2 个。