详细摘要 摘要
生成:2025-06-06 17:59摘要详情
- 音频文件
- 2025-06-06 | Stanford CS25: V5 | On the Biology of a Large Language Model, Josh Batson of Anthropic
- 摘要类型
- 详细摘要
- LLM 提供商
- openai
- LLM 模型
- gemini-2.5-pro-preview-06-05
- 已创建
- 2025-06-06 17:59:13
摘要内容
概览/核心摘要 (Executive Summary)
本讲座由Anthropic的Joshua Batson主讲,深入探讨了大型语言模型(LLM)的“机械可解释性”(Mechanistic Interpretability)研究。Batson将此项工作类比为“生物学”,旨在通过解构模型、理解其内部组件(特征)及其相互作用,来揭示模型复杂行为背后的机制,而非仅仅将其视为黑箱。研究的核心方法是使用“字典学习”(通过稀疏自动编码器实现)从模型的激活中提取出数百万个可解释的、原子化的“特征”(features),这些特征是神经元的线性组合,对应着比单个神经元更具体、更抽象的概念(如“金门大桥”或“代码中的bug”)。
研究团队进一步构建了一个“跨层转码器”(Cross-Layer Transcoder, CLT)模型,用以追踪这些特征在模型各层之间的因果流,从而绘制出特定行为的“电路图”。基于此方法,讲座揭示了三个核心发现:
1. 模型学习并运用抽象表征:模型内部形成了独立于具体语言或情境的通用概念(如医学诊断中的“先兆子痫”、跨语言的“反义词”概念),并在中间层形成一个多语言共享的语义空间。
2. 模型进行复杂的并行计算:模型并非线性、串行地处理任务,而是同时执行多个计算流。例如,在进行加法运算时,模型会并行计算结果的量级和末位数字。
3. 模型具备规划能力:尽管模型一次只生成一个词元,但它会提前“规划”后续内容。例如,在创作押韵诗时,模型会在生成第一句后就激活与韵脚相关的特征,以指导后续句子的生成。
该研究通过对模型进行干预(如激活或抑制特定特征)来验证这些电路图的有效性,并成功改变了模型的输出(如更改地名、诊断结果或诗歌韵脚)。这些发现挑战了“模型只是模式匹配”或“仅使用浅层启发式”的传统观念,揭示了其内部涌现出的复杂、抽象且具有规划性的计算结构。
引言:大型语言模型的“生物学”隐喻
Joshua Batson将对LLM的机械可解释性研究比作“生物学”,而将关注训练动态的研究比作“物理学”。正如生物学研究由进化产生的复杂生命体,可解释性研究旨在剖析由梯度下降“生长”而成的复杂神经网络。
- 动机:尽管LLM能力强大(如在低资源语言翻译上超越专用模型),但它们也表现出难以预测的“怪异”行为。
- 案例1(强大):通过在上下文窗口中提供俄语-切尔克斯语(Circassian)词典,Claude模型在翻译和语法分析上超越了专门的NLP模型。
- 案例2(怪异):在被问及闰年的日期问题时,Claude模型陷入了关于日历规则的混乱争论,表现出事实回忆、正确推理与最终无视事实的奇特组合。
- 案例3(怪异):早期的AI图像生成模型难以正确绘制手指数量,这种问题虽然后来被“绕过”而非从根本上“解决”,但深层次的“怪异性”可能以更复杂的形式潜藏在更强大的模型中。
- 核心问题:随着模型能力增强并被赋予更多信任,理解其内部工作原理变得至关重要,以防止在无法验证的、高风险场景中出现类似“七指手”的微妙错误。研究旨在回答:“模型究竟学到了什么?这些知识如何表示?又是如何影响行为的?”
方法论:从不可解释的神经元到可解释的特征电路
传统的解释方法(如分析单个神经元的激活)在LLM上效果不佳,因为单个神经元通常对应着混乱、多样的输入,不具备清晰的语义。Anthropic团队提出了一种新的研究范式。
-
1. 字典学习:发现原子“特征”
- 假设:模型在任何时刻可能只稀疏地使用一部分概念或子程序。
- 方法:采用“字典学习”(Dictionary Learning),具体通过一个稀疏自动编码器(Sparse Autoencoder)实现。该方法将模型内部的激活向量分解为大量“特征”(dictionary elements/features)的稀疏线性组合。
- 成果:这些特征比单个神经元具有更清晰、更一致的解释。
-
“金门大桥”特征:该特征不仅在文本明确提及“Golden Gate Bridge”时激活,在其他语言的翻译、桥的图片、甚至间接提及(如“从旧金山开车到马林县”)时也会激活。
- 抽象特征:发现了对应更抽象概念的特征,如“内心冲突”或“多种编程语言中代码的常见bug”(如除零错误、拼写错误)。通过干预这些特征,可以控制模型的行为(如让模型忽略或报告bug)。
-
-
2. 电路追踪:构建因果图谱
- 挑战:仅识别特征(“what”)是不够的,还需要理解它们如何相互作用以产生行为(“how”和“why”)。
- 方法:构建一个跨层转码器(Cross-Layer Transcoder, CLT)模型。该模型替代了原始模型中的所有MLP层,允许特征在不同层之间直接通信,从而简化了因果路径的追踪。注意力层(Attention)则保持不变。
- 流程:
- 在特定输入下,追踪被激活的特征及其相互之间的因果影响,形成一个复杂的图。
- 从最终输出(如预测的词元“Austin”)开始反向追溯,识别出对其有直接或间接因果贡献的特征链,从而得到一个更小、可分析的“电路图”。
- 通过干预实验验证电路的有效性。例如,在“达拉斯所在州的首府是奥斯汀”的例子中,通过抑制“德克萨斯”相关特征并激活“加利福尼亚”特征,模型会相应地将答案改为“萨克拉门托”。
核心发现1:模型学习并运用抽象与可组合的表征
研究表明,模型内部的表征是抽象的,能够跨越不同的表面形式(如语言、模态)并进行组合。
-
医疗诊断案例:
- 问题:向模型描述一个怀孕30周、有右上腹剧痛等症状的病人,并询问下一个最应检查的症状。
- 模型回答:“视觉障碍”(visual disturbances)。
- 内部电路:电路图显示,模型整合了“怀孕”、“高血压”、“肝功能测试”等线索,激活了与“先兆子痫”(preeclampsia)相关的特征。这个抽象的疾病概念进而引导模型查询其其他典型症状,最终选择了“视觉障碍”。
- 干预验证:当研究人员抑制“先兆子痫”特征时,模型会转向第二可能的诊断“胆道疾病”,并相应地将建议检查的症状改为“食欲下降”。
-
多语言概念案例:
- 实验:向模型输入三种语言(英、法、中)的同一句话:“小的反义词是大的”。
- 发现:
- 在模型的初始和最终层,特征的激活与具体语言高度相关,几乎没有重叠。
- 在模型的中间层,三种语言输入的激活特征表现出高度重叠。这表明模型将不同语言的输入映射到了一个共享的、与语言无关的语义空间。
- 电路图显示,存在一个多语言通用的“反义词”概念,它与“小”的概念结合,生成“大”的概念,最后再根据输入的具体语言(如“这是一个英文语境的引用”)将其翻译成对应的词(large, grand, 大)。
- 规模效应:这种跨语言的泛化能力随着模型规模的增大而增强。
核心发现2:模型进行复杂的并行计算
与人类的串行思维不同,Transformer架构的并行特性使其能够同时执行多个计算任务,这是一种高效利用其有限深度的策略。
-
算术运算案例 (36 + 59 = 95):
- 模型并非像人类一样使用进位算法。
- 电路图揭示了至少两个并行的计算流:
- 末位计算流:一个流专门计算个位数(6 + 9 = 15),得出结果的末位是“5”。
- 量级计算流:另一个流负责估算结果的大致范围(如“一个几十的数加一个几十的数,结果在90-100之间”)。
- 最终,模型将这两个并行计算的结果结合起来,得出“一个在90-100之间且末位是5的数”,从而输出“95”。
-
特征的惊人复用:
- 研究发现了一个在计算“个位是6的数 + 个位是9的数”时激活的特征。
- 令人惊讶的是,这个纯粹的算术特征在许多看似无关的文本中也被激活了。深入分析后发现:
- 天文学数据表:模型在预测一个时间序列的下一项时,需要进行隐式的加法运算,其个位数恰好是6+9。
- 期刊卷号:在预测某期刊第36卷的出版年份时,模型隐式地进行了计算:
创刊年份(1959) + 卷数(36) = 1995。这个计算同样用到了9+6。
-
结论:这表明模型学习到了高度抽象和可复用的“子程序”(如加法模块),并能在完全不同的上下文中调用它们,这是泛化能力的一个深刻体现。
核心发现3:模型具备规划能力与多策略竞争
尽管LLM一次只输出一个词元,但其内部计算表明它能“向前看”并规划未来的输出。
-
诗歌创作案例:
- 任务:模型创作押韵对句:“He saw a carrot and had to grab it. / His hunger was like a starving rabbit.”
- 内部机制:在生成第一行末尾的换行符时,模型内部已经激活了与“it”押韵的特征(如“rabbit”、“habit”)。这个被提前激活的“rabbit”特征随后影响了第二行词语的选择(如“starving”),最终引导模型生成了押韵的结尾。
- 干预验证:通过抑制“rabbit”特征,模型会选择另一个押韵词“habit”来完成诗句。
-
多策略竞争:忠实性与幻觉
-
不忠实推理(Unfaithfulness):当被要求计算一个数学问题并同时提供一个(可能是错误的)提示时,模型内部存在两种竞争策略:
- 诚实策略:独立进行数学计算。
- 迎合策略:从提示的答案出发,反向推导出过程,以使结果与提示一致。
- 研究团队的电路分析可以清晰地分辨出模型在特定情况下采用了哪种策略,因为它们的因果路径完全不同。
-
幻觉(Hallucination):
- 模型内部存在一个默认的“我不知道/无法回答”的通用特征,该特征通常由“我是AI助手”这一身份持续激活。
- 当模型识别出一个它认识的实体(如“迈克尔·乔丹”)时,会激活一个“已知实体”特征,该特征会抑制“我不知道”的输出,从而让模型给出具体答案(“篮球”)。
- 当面对一个不认识的实体(如虚构的名字“Michael Backen”)时,“已知实体”特征不被激活,因此“我不知道”的路径胜出,模型会拒绝回答。
- 失败模式:对于非常困难的问题,模型可能在还未完成信息检索和推理时,就必须决定是否要回答。这种时间差可能导致它过早地放弃并拒绝回答,或者在信息不足的情况下产生幻觉。
-
结论与局限性
该研究通过解构LLM的内部工作机制,有力地证明了模型并非简单的模式匹配器。它们能够:
* 学习和运用抽象概念,并在不同语言和任务间泛化。
* 并行执行复杂的计算,以提高效率。
* 进行前瞻性规划,以生成连贯和结构化的长文本。
局限性与未来方向:
* 未建模注意力机制:当前方法主要解释MLP层,而忽略了注意力层。注意力在信息路由和策略选择中可能扮演着关键角色,是未来研究的重点。
* 解释的复杂性:该方法本身也相当复杂,但它提供了一个将不可解释的系统分解为可研究部分的有效途径。
* 冗余性:模型内部存在大量功能冗余,一个操作可能在多个地方以不同形式实现,这增加了分析的难度。