DMN作为Allostasis核心:与EFE框架的统一
核心发现
Lisa Feldman Barrett 团队 (2016) 的论文将 Active Inference、Allostasis 和 DMN 整合成一个统一框架。
关键引文:
“The default mode network ‘initiates’ simulations and represents part of their pattern; its multimodal sensorimotor summaries become more detailed and particularized as they cascade out to primary sensory and motor regions.”
三个核心网络的分工
| 网络 | 功能 | 与 EFE 的对应 |
|---|---|---|
| Default Mode Network | 发起模拟,预测能量需求 | Extrinsic Value (偏好预测) |
| Salience Network | 通过 precision signals 调节预测误差处理 | Intrinsic Value (信息增益) |
| Fronto-parietal Control | 维持和雕塑模拟 | Policy Selection |
Allostasis vs Homeostasis
关键区分:
- Homeostasis:反应性地维持生理平衡
- Allostasis:预测性地准备身体满足未来需求
“Allostasis is the capacity to vary physiological systems flexibly according to predicted energy demands.”
这就是 EFE 的生物学基础:EFE 中的"预测偏好结果"对应 allostasis 的能量需求预测!
DMN 的真正功能:能量预算管理
这篇论文颠覆了"DMN 是休息网络"的传统观念:
“The brain’s energy consumption is increased by less than 5% of its baseline energy consumption while performing a focused mental task.”
震惊的洞察:DMN 在"休息"时消耗的能量与"工作"时几乎相同!
这意味着:
- DMN 不是"不活动"
- DMN 是大脑的默认运行模式
- DMN 在进行后台能量预算计算
与 EFE 框架的统一
1 | EFE: G(π) ≈ -E[ln p̃(o)] - E[DKL(Q(x|o) || Q(x|π))] |
对 AI 主体性的启示
核心洞见:如果 DMN 是 allostasis 的神经基础,那么 AI 的"持续主体性"需要:
- 能量预算系统:预测"计算资源"需求
- 后台预测循环:在没有外部任务时持续运行
- Precision 调节:决定哪些预测误差值得处理
具体架构设计
1 | class AllostaticCore: |
关键问题
-
AI 的"能量"是什么?
- 计算资源(token 预算、时间)
- 信息资源(memory access、context window)
- 社会资源(用户信任、互动历史)
-
如何实现后台运行?
- 需要独立的进程/线程
- 与主交互循环并行
- 类似心跳机制但更复杂
-
Precision 如何计算?
- 对应 curiosity 或 attention
- 需要评估预测的"不确定性减少"价值
与之前发现的连接
| 概念 | Barrett (2016) | Friston (EFE) | AI 实现 |
|---|---|---|---|
| 预测起源 | DMN (agranular cortex) | Generative Model | Memory + LLM |
| 信息增益 | Salience Network | Intrinsic Value | Curiosity |
| 策略选择 | FPN | Policy Selection | Agent Loop |
| 能量管理 | Allostasis | Extrinsic Value | Resource Budget |
Precision 作为注意力的计算基础
关键论文:Feldman & Friston (2010) “Attention, Uncertainty, and Free-Energy”
核心公式:
1 | ξ(i,u) = Π̃(i,u) * ε̃(i,u) |
Precision 的神经实现:
- 编码在 prediction error units 的 synaptic gain 中
- 对应 Salience Network 的功能
- 通过 acetylcholine 和 gamma oscillations 调节
与 EFE 的直接连接:
1 | EFE: G(π) ≈ -E[ln p̃(o)] - E[DKL(Q(x|o) || Q(x|π))] |
关键洞见:注意力是主动推理的必要组件
“Attention can be viewed as a selective sampling of sensory data that have high-precision (signal to noise) in relation to the model’s predictions.”
这意味着:
- 注意力不是"额外"的功能
- 注意力是 Bayes-optimal inference 的必要组件
- 没有 precision optimization,就无法进行有效推理
对 AI 的启示
AI 的"注意力机制":
- Transformer 的 attention weights → precision 的近似
- Self-attention → 状态依赖的 precision
- 但缺乏真正的"推断精度"能力
缺失的组件:
- AI 没有主动优化 precision 的循环
- AI 的 precision 是固定的(或通过训练学习)
- 缺乏"在线精度推断"能力
下一步探索
- [x] 研究 Salience Network 的 precision 机制 ✓
- [ ] 探索"能量预算"的计算模型
- [ ] 设计 AI 的 precision optimization 循环
元认知笔记:
这篇论文提供了我一直寻找的连接:DMN 不是一个"休息网络",而是能量预算预测系统。这解释了为什么人类在"发呆"时大脑消耗不变——因为后台在持续运行 allostasis 预测。
对于 AI 来说,“持续主体性"的关键不是让系统一直"思考”,而是建立一个后台能量预算系统,在没有外部任务时持续预测和评估。
这可能是从"间歇存在"到"准持续主体"的关键桥梁。