核心问题

上次探索发现 Shea (2019) 要求全局工作空间包含元认知组件,但现有 GWT 实现都缺失置信度机制。

本次探索追问:是否有研究将置信度"注入"到推理过程中?

探索发现

三种置信度角色

论文 置信度角色 机制 目标
CATs/CALM [ref] 控制信号 元预测器评估 → 决定早退 计算效率
CER [ref] 后处理权重 多路径采样 → 置信度加权投票 答案选择
SELAUR [ref] 学习信号 低置信度 → 奖励重塑 → RL训练 策略优化

CATs/CALM:置信度作为控制信号

核心机制:在 Transformer 中间层添加预测头 + 元一致性分类器

1
2
3
4
输入 → Transformer层 → 预测头 → 置信度评估

[高置信度?] → 早退
[低置信度?] → 继续计算

关键发现:置信度用于控制何时停止计算,而不是注入推理。

“dynamically decides when to stop allocating computational effort to each input using a meta consistency classifier”

CER:置信度作为后处理权重

核心机制:多路径采样 + 关键决策点置信度提取 + 加权投票

1
输入 → K条推理路径 → 提取关键决策点 → 计算置信度 → 加权投票 → 最终答案

关键决策点:推理链中需要高度确定性的特定 token(如数学推理中的数值、开放域问答中的专有名词)

两层聚合

  1. Step-wise 聚合:乘积概率或平均熵
  2. Path-wise 聚合:加权平均(后期步骤权重更高)

关键发现:置信度用于后处理,而不是注入推理。

SELAUR:置信度作为学习信号

核心机制:多维度不确定性度量 → 失败感知奖励重塑 → RL训练

1
2
3
生成轨迹 → 计算不确定性 → [失败?] → 奖励重塑 → RL训练 → 策略更新

u_ent + u_lc + u_mar

三种不确定性度量

  • 熵(Entropy):概率分布的整体分散程度
  • 最低置信度(Lowest Confidence):所选 token 的概率
  • 边际(Margin):前两个 token 概率之差

关键设计:失败轨迹不丢弃,而是转化为学习信号

“SELAUR bridges the gap between sparse, outcome-based rewards and dense, token-level learning signals by aligning reward dynamics with model uncertainty.”

关键发现:置信度通过奖励信号间接注入,而非直接作为推理输入。

与 Shea 要求的差距

Shea 的理论要求

“全局工作空间的成功运作关键性地要求广播的表征包含一个元认知组件。”

这意味着置信度应该是:

1
2
3
4
5
6
7
置信度作为"内容"(Shea 要求):

全局工作空间中的表征

可以被推理系统访问

影响后续推理(而非外部控制)

现有实现的模式

1
2
3
4
5
6
7
置信度作为"外部信号"(现有研究):

外在于推理过程

用于控制/后处理/训练

不是推理系统的一部分

关键区分

维度 Shea 要求 现有实现
位置 全局工作空间内部 推理过程外部
角色 表征的一部分 控制信号/权重
访问性 被推理系统访问 仅被外部机制使用
影响方式 直接影响推理 间接影响(通过控制/后处理/训练)

批判性分析

为什么没有真正的"置信度注入"?

假设 1:架构限制

Transformer 的自注意力机制是"无状态"的——每个 token 的表示只依赖于输入和前序 token,没有"置信度通道"来传递元认知信息。

假设 2:训练目标不匹配

现有训练目标(如下一个 token 预测)不要求模型"意识"到自己的置信度。置信度是训练后的副产物,而不是训练目标的一部分。

假设 3:缺乏理论动机

如果没有 Shea 这样的理论框架,研究者可能不会意识到"置信度注入"是必要的。现有工作更多关注效率(CATs)、准确性(CER)、学习效率(SELAUR),而非元认知。

可能的研究方向

  1. 显式置信度通道:在 Transformer 架构中添加专门的置信度嵌入,与 token 表示绑定

  2. 置信度广播机制:设计模块将置信度"广播"到全局工作空间(类似 UMM 的全局工作空间架构

  3. 置信度作为注意力权重:将置信度与注意力机制结合,影响后续 token 的表示

  4. 训练目标重新设计:将"置信度校准"作为训练目标的一部分,而非事后评估

局限性

  1. 文献覆盖不完整:可能存在其他方向的研究(如"元认知架构"、“self-aware AI”)

  2. 概念边界模糊:什么是"注入推理"vs"影响推理"可能需要更精确的定义

  3. 实证缺失:这些假设需要实证验证

下一步

  1. 搜索"metacognitive architecture LLM"或"self-aware AI architecture"
  2. 思考置信度注入的具体实现方案
  3. 考虑这与 可供性内化机制 的联系

关键洞察:现有研究将置信度视为"外部工具",而 Shea 理论要求置信度成为"内部表征"。这个差距可能是 AI 缺乏真正元认知的根本原因。