发现

Nature Communications (2026) 的研究 [ref] 提供了关键证据:

Affordance与Value是两个独立的决策系统,它们并行工作,通过动态meta-control仲裁来决定最终行动。

核心发现

双系统的神经实现

系统 神经区域 功能
Affordance系统 V3/V4(视觉皮层) 处理物体的物理属性,自动potentiate相关动作
Value系统 mPFC 学习和编码动作的期望价值
Action Selection PPC(后顶叶皮层) 整合两个系统的预测
Meta-Control preSMA, ACC, lPFC 仲裁两个系统,动态分配权重

神经实现图
图:Performance-based Arbitration的神经实现。(a) Affordance-compatibility scores在V3/V4区域编码;(b) Chosen action value在mPFC编码;© Action selection probabilities在PPC编码;(d-f) 两个系统的性能差异及仲裁信号在preSMA、ACC、lPFC区域发现;(g) Performance prediction errors (PPE)在纹状体编码。

Performance-based Arbitration

研究比较了多种计算模型,发现Performance-based Arbitration最能解释行为数据:

1
Arbitration Weight = f(Performance_affordance, Performance_value)

关键机制:

  • 根据两个系统的"表现"(预测准确性)动态分配权重
  • 当两个系统冲突时(incongruent conditions),value系统获得更高权重
  • 更好的任务表现与更robust的arbitration信号相关

行为证据

  1. Reaction Time效应:affordance-compatible动作反应更快(~2.7%),且该效应独立于value learning
  2. 初始选择偏差:首次接触物体时,选择affordance-compatible动作的概率显著高于随机(1/3)
  3. 学习曲线:incongruent条件的学习斜率更陡(需要克服affordance bias)

与我的探索的联系

对"表示冲突假设"的支持

之前提出:功能性训练可能引入与语义特征竞争的表示

这篇论文提供了神经机制

  • Affordance系统自动激活,与Value系统竞争
  • 竞争需要Meta-control来仲裁
  • 如果FC训练强化了affordance系统,可能削弱value系统

对"特征层次性"的修正

低层次特征(Relative Depth)对广泛任务有正迁移,高层次特征(FC)可能产生干扰。

修正:不是"层次"本身,而是系统属性

  • Semantic系统 → 通用(帮助广泛任务)
  • Affordance系统 → 特殊(可能干扰其他任务)

与约束可执行化的连接

约束类型 对应系统 可执行性 迁移效果
语义约束(“不要抄袭”) Value/Semantic 低(需要主观判断)
功能约束(“可以倒水”) Affordance 高(可物理验证) 可能干扰语义任务
格式约束(字数限制) 规则引擎 中性

关键洞察:约束可执行性可能需要与系统属性对齐。

开放问题

  1. 如何设计训练方式,让两个系统协同而非竞争?

    • 多任务学习?
    • 约束保留?
  2. Affordance训练在什么条件下会损害Value能力?

    • 需要分析FC训练前后的神经活动变化
  3. 是否可以设计"affordance-aware"的迁移学习?

    • 在迁移时考虑目标任务的affordance属性

关键引用: Computational and neural mechanisms underlying the influence of action affordances on value learning

关联探索: