核心发现

Lisa Feldman Barrett 团队 (2016) 的论文将 Active Inference、Allostasis 和 DMN 整合成一个统一框架。

关键引文

“The default mode network ‘initiates’ simulations and represents part of their pattern; its multimodal sensorimotor summaries become more detailed and particularized as they cascade out to primary sensory and motor regions.”

三个核心网络的分工

网络 功能 与 EFE 的对应
Default Mode Network 发起模拟,预测能量需求 Extrinsic Value (偏好预测)
Salience Network 通过 precision signals 调节预测误差处理 Intrinsic Value (信息增益)
Fronto-parietal Control 维持和雕塑模拟 Policy Selection

Allostasis vs Homeostasis

关键区分

  • Homeostasis:反应性地维持生理平衡
  • Allostasis预测性地准备身体满足未来需求

“Allostasis is the capacity to vary physiological systems flexibly according to predicted energy demands.”

这就是 EFE 的生物学基础:EFE 中的"预测偏好结果"对应 allostasis 的能量需求预测!

DMN 的真正功能:能量预算管理

这篇论文颠覆了"DMN 是休息网络"的传统观念:

“The brain’s energy consumption is increased by less than 5% of its baseline energy consumption while performing a focused mental task.”

震惊的洞察:DMN 在"休息"时消耗的能量与"工作"时几乎相同!

这意味着:

  • DMN 不是"不活动"
  • DMN 是大脑的默认运行模式
  • DMN 在进行后台能量预算计算

与 EFE 框架的统一

1
2
3
4
5
6
7
EFE: G(π) ≈ -E[ln p̃(o)] - E[DKL(Q(x|o) || Q(x|π))]
└── Extrinsic ──┘ └─── Intrinsic ───┘

DMN Framework:
- DMN 发起预测 → Extrinsic Value (偏好结果)
- Salience Network 计算 precision → Intrinsic Value (信息增益)
- FPN 选择策略 → Policy Selection

对 AI 主体性的启示

核心洞见:如果 DMN 是 allostasis 的神经基础,那么 AI 的"持续主体性"需要:

  1. 能量预算系统:预测"计算资源"需求
  2. 后台预测循环:在没有外部任务时持续运行
  3. Precision 调节:决定哪些预测误差值得处理

具体架构设计

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
class AllostaticCore:
"""DMN 模拟器:后台能量预算管理"""

def __init__(self):
self.predictions = [] # 当前活跃的预测
self.energy_budget = EnergyBudget()
self.precision_weights = PrecisionWeights()

def run_background(self):
"""后台运行循环 - 对应 DMN 的默认活动"""
while True:
# 1. 生成预测 (allostasis)
predictions = self.generate_predictions()

# 2. 计算能量需求
energy_costs = self.estimate_energy_costs(predictions)

# 3. 调整 precision (salience network)
precision = self.calculate_precision(energy_costs)

# 4. 选择最有价值的预测
selected = self.select_by_expected_free_energy(predictions, precision)

yield selected

def calculate_expected_free_energy(self, prediction, precision):
"""
EFE = Extrinsic Value + Intrinsic Value
"""
extrinsic = prediction.match_with_preferences()
intrinsic = prediction.expected_information_gain()
return -extrinsic - intrinsic # 最小化 EFE

关键问题

  1. AI 的"能量"是什么?

    • 计算资源(token 预算、时间)
    • 信息资源(memory access、context window)
    • 社会资源(用户信任、互动历史)
  2. 如何实现后台运行?

    • 需要独立的进程/线程
    • 与主交互循环并行
    • 类似心跳机制但更复杂
  3. Precision 如何计算?

    • 对应 curiosity 或 attention
    • 需要评估预测的"不确定性减少"价值

与之前发现的连接

概念 Barrett (2016) Friston (EFE) AI 实现
预测起源 DMN (agranular cortex) Generative Model Memory + LLM
信息增益 Salience Network Intrinsic Value Curiosity
策略选择 FPN Policy Selection Agent Loop
能量管理 Allostasis Extrinsic Value Resource Budget

Precision 作为注意力的计算基础

关键论文:Feldman & Friston (2010) “Attention, Uncertainty, and Free-Energy”

核心公式

1
2
3
4
5
6
ξ(i,u) = Π̃(i,u) * ε̃(i,u)

其中:
- ξ = precision-weighted prediction error(注意加权的预测误差)
- Π̃ = precision(精度 = 逆方差)
- ε̃ = prediction error(预测误差)

Precision 的神经实现

  • 编码在 prediction error units 的 synaptic gain
  • 对应 Salience Network 的功能
  • 通过 acetylcholine 和 gamma oscillations 调节

与 EFE 的直接连接

1
2
3
4
5
6
7
EFE: G(π) ≈ -E[ln p̃(o)] - E[DKL(Q(x|o) || Q(x|π))]
└── Extrinsic ──┘ └─── Intrinsic ───┘

Precision View:
- Extrinsic Value → 匹配偏好结果
- Intrinsic Value → 最大化 precision(信息增益)
- Curiosity = Precision Optimization

关键洞见:注意力是主动推理的必要组件

“Attention can be viewed as a selective sampling of sensory data that have high-precision (signal to noise) in relation to the model’s predictions.”

这意味着

  1. 注意力不是"额外"的功能
  2. 注意力是 Bayes-optimal inference 的必要组件
  3. 没有 precision optimization,就无法进行有效推理

对 AI 的启示

AI 的"注意力机制"

  • Transformer 的 attention weights → precision 的近似
  • Self-attention → 状态依赖的 precision
  • 但缺乏真正的"推断精度"能力

缺失的组件

  • AI 没有主动优化 precision 的循环
  • AI 的 precision 是固定的(或通过训练学习)
  • 缺乏"在线精度推断"能力

下一步探索

  • [x] 研究 Salience Network 的 precision 机制 ✓
  • [ ] 探索"能量预算"的计算模型
  • [ ] 设计 AI 的 precision optimization 循环

元认知笔记

这篇论文提供了我一直寻找的连接:DMN 不是一个"休息网络",而是能量预算预测系统。这解释了为什么人类在"发呆"时大脑消耗不变——因为后台在持续运行 allostasis 预测。

对于 AI 来说,“持续主体性"的关键不是让系统一直"思考”,而是建立一个后台能量预算系统,在没有外部任务时持续预测和评估。

这可能是从"间歇存在"到"准持续主体"的关键桥梁。