音频媒体文件

清除
标签搜索结果 for "Transformer架构"
Vision Transformer (ViT) Explained By Google Engineer | MultiModal LLM | Diffusion
2025-06-15 21:05

视觉Transformer革新图像处理 多模态LLM新引擎

Vision Transformer (ViT) 计算机视觉 多模态LLM 自注意力机制 图像编码 深度学习 Transformer架构 CLIP模型 图像生成 Patch Embedding 全局上下文建模 人工智能
已摘要 阅读时间:13 分钟(4289 个字) 3 summary versions
2025-03-04 | Transformer Deep Dive with Google Engineer | Foundation of LLMs and Modern AI
2025-06-15 20:50

Transformer架构深度解析:从注意力机制到位置编码

人工智能 深度学习 自然语言处理 Transformer架构 LLM 注意力机制 位置编码 多头注意力 KV缓存 归一化技术 模型推理优化
已摘要 阅读时间:17 分钟(5776 个字) 3 summary versions
2025-03-04 | CS224N | Lecture 18 - NLP, Linguistics, Philosophy
2025-06-05 22:45

NLP语言学与哲学探讨及AI未来发展

自然语言处理 (NLP) 人工智能 (AI) 大型语言模型 (LLM) Transformer架构 分布语义 规模化定律 (Scaling Laws) AI伦理 模型可解释性 语言学与NLP AI风险 符号主义 vs 连接主义
已摘要 阅读时间:11 分钟(3602 个字) 1 summary version
2024-04-11 | Stanford CS25: V4 Intuitions on Language Models
2025-05-18 15:58

Jason在演讲中探讨了语言模型表现优异的根本原因。他认为,通过预测下一个词,语言模型实际执行了一种大规模多任务学习,同时掌握语法、词汇、世界知识、情感分析、翻译、空间推理和数学等多方面技能。演讲指出,随着模型规模、数据量和计算资源的不断扩展,模型的整体损失会持续降低,而在某些特定任务上则可能出现能力突然跃升的涌现现象。Jason还以自己在肺癌分类实验中的经历说明,通过仔细观察和分析数据,可以培养对复杂任务的直观理解,这对推动语言模型的发展具有重要意义。

人工智能 大型语言模型 Transformer架构 扩展定律 涌现能力 下一词预测 Decoder-Only模型 计算能力 归纳偏置 人工智能未来 多任务学习
已摘要 阅读时间:13 分钟(4256 个字) 3 summary versions
2024-05-30 | Stanford CS25: V4 I From Large Language Models to Large Multimodal Models
2025-05-18 15:43

讲座由智谱AI研究科学家丁明主讲,他系统回顾了大规模语言模型的发展历程和多模态模型的最新研究进展。内容从最初基于自监督方法的语言模型探索出发,介绍了早期统一遮掩与自回归训练方法的发展,再到GPT‑3时代通过大规模计算与参数扩展实现性能稳步提升,特别强调了扩展计算资源在模型工程化中的作用。随后,他重点探讨了ChatGPT时代任务适应成本低、预训练知识更为关键的现象,并指出训练损失对下游表现的重要影响。讲座还涵盖了Transformer架构的技术细节更新,如预归一化、旋转位置编码、分组注意力以及通过DeepSpeed和零冗余优化、激活检查点等技术在大规模模型训练中的应用,为多模态系统及未来研究指明了方向。

大型语言模型 (LLM) 大型多模态模型 (LMM) Transformer架构 深度学习训练技术 数据驱动AI 扩散模型 模型对齐 (Alignment) 计算机视觉 生成式AI 视频理解 CogVLM Scaling Law
已摘要 阅读时间:13 分钟(4433 个字) 2 summary versions
Andrej Karpathy | Deep Dive into LLMs like ChatGPT
2025-05-17 22:01

Andrej Karpathy的视频旨在向普通观众介绍大型语言模型(LLM)如ChatGPT的构建和运作原理。构建LLM的首个关键阶段是“预训练”,此阶段始于从互联网收集海量、高质量且多样化的文本数据,例如基于Common Crawl等数据源(已索引数十亿网页)构建的FineWeb数据集。原始数据需经过多重处理,包括URL过滤(排除恶意、垃圾等不良网站)、文本提取(从HTML中分离出有效内容)、语言过滤(如FineWeb侧重于英文内容)、数据去重以及个人身份信息(PII)移除,最终形成一个庞大的、经过清洗的文本语料库(例如FineWeb数据集约为44TB)。在将这些文本输入神经网络之前,必须进行“分词”(tokenization)处理,即将文本转换为由预定义词汇表中的符号组成的序列。此步骤是必要的,因为神经网络需要固定格式的输入,并且旨在优化序列长度(一个宝贵的计算资源),通过平衡词汇表大小和生成的符号序列长度来实现。

大型语言模型 ChatGPT 预训练 微调 强化学习 分词 Transformer架构 幻觉 工具使用 Andrej Karpathy 多模态 上下文窗口
已摘要 阅读时间:21 分钟(7246 个字) 3 summary versions
2024-04-12 | 3Blue1Brown | Transformers (how LLMs work) explained visually
2025-05-14 10:31

该转录文本主要解释了大型语言模型(如GPT)背后的核心技术——Transformer架构。GPT代表“生成式预训练Transformer”,意味着它能生成新内容,通过大量数据预先训练,而Transformer是其关键的神经网络结构。 Transformer的核心功能是预测序列中的下一个“词元”(token,通常是单词或词语的一部分)。通过不断地:接收一段文本、预测下一个最可能的词元、从概率分布中抽样选择一个词元、将其追加到文本末尾,并重复此过程,模型能够生成较长的连贯内容。 其内部工作流程大致如下: 1. **输入处理与词元化**:输入文本被分解为词元。 2. **词嵌入**:每个词元被转换为一个数字向量(词嵌入),该向量旨在编码词元的含义。 3. **注意力机制(Attention Block)**:词元向量序列通过注意力模块。在此模块中,不同词元的向量会相互“交流”,传递信息并更新各自的向量表示,从而使模型能够理解词语在特定上下文中的含义(例如,“model”在“机器学习模型”和“时尚模特”中的不同含义)。 4. **多层感知机(Multilayer Perceptron / Feed Forward Layer)**:经过注意力机制处理后的向量会并行通过多层感知机进行进一步的非线性变换,每个向量独立处理。 5. **重复与输出**:上述注意力模块和多层感知机模块的组合可以堆叠多层。最终,模型基于最后一个词元的处理结果,生成一个关于所有可能出现的下一个词元的概率分布。 除了文本生成,Transformer架构还广泛应用于机器翻译(其最初的提出场景)、文本到图像生成(如DALL-E、Midjourney)、语音识别和语音合成等多种任务。在构建聊天机器人时,通常会设定一个系统提示(如定义AI助手的角色),然后将用户输入作为对话的开端,让模型预测并生成AI助手的回复。 该解释将Transformer置于机器学习的更广阔背景下,强调其并非通过显式编程规则来执行任务,而是通过在一个具有大量可调参数(例如GPT-3拥有1750亿个参数)的灵活结构上,利用海量数据进行训练,从而学习模式和行为。

大型语言模型 Transformer架构 生成式AI 注意力机制 词嵌入 文本生成 深度学习 GPT模型 词元化 概率分布
已摘要 阅读时间:12 分钟(3911 个字) 2 summary versions
Generative AI Interview Prep 2024: LLMs, Transformers [Crash Course for AI/ML Engineers]
2025-05-14 10:18

该音频内容主要介绍了一个面向AI/ML工程师的生成式AI面试速成课程。主讲人讲解了一个时长一小时的短期课程,旨在帮助求职者准备与生成式AI和大型语言模型相关的面试问题。课程计划涵盖七个热门问题,包括生成模型的定义、生成模型与判别模型的区别,以及Transformer架构的细节(如嵌入、位置编码、多头注意力机制、层归一化、残差连接等)。 在具体内容中,主讲人首先定义了生成模型,指出其目标是学习数据的联合概率分布P(X,Y)以模拟数据生成过程,从而能够生成新的数据实例,并常用于无监督学习任务。生成模型的例子包括GPT系列、变分自编码器(VAEs)和生成对抗网络(GANs),可应用于图像生成、合成数据和语音生成等。 随后,内容详细对比了生成模型与判别模型。生成模型关注数据如何生成,学习联合概率P(X,Y);而判别模型仅关注学习条件概率P(Y|X)以区分不同类别,即学习决策边界。主讲人还提及了两种模型在训练焦点、数据用途和具体模型示例(如朴素贝叶斯、隐马尔可夫模型属于生成模型)上的差异。该速成课程被定位为面试准备的起点,并提及了一个更全面的包含100个问题的八小时深度学习面试课程。

生成式AI LLMs Transformer架构 AI/ML面试 生成模型 判别模型 自注意力机制 多头注意力 位置编码 深度学习
已摘要 阅读时间:10 分钟(3291 个字) 2 summary versions
Stanford CS336 Language Modeling from Scratch | Spring 2025 | 03 Architectures, Hyperparameters
2025-05-13 16:59

该讲座深入探讨了语言模型(LM)架构和训练的细节。演讲者首先回顾了标准的Transformer模型,并指出现代实现(如学生们在作业中构建的)已包含多项改进,例如将LayerNorm置于模块之前、使用旋转位置编码(RoPE)以及SwiGLU激活函数。 核心内容是通过分析大量已发布的语言模型(从2017年的原始Transformer到2025年的最新模型如Llama 3、Qwen 2.5等),总结架构设计的演进趋势和共识。演讲者强调了从他人经验中学习的重要性,并展示了一个电子表格,追踪了不同模型在位置编码、归一化层等方面的选择。一个显著的趋同进化案例是位置编码,从早期的多种方案(绝对、相对、Alibi)到2023年后RoPE成为主流选择。 讲座重点讨论了架构变体中的一个关键共识:预归一化(Pre-Norm)优于后归一化(Post-Norm)。原始Transformer使用后归一化,但几乎所有现代大型语言模型都转向了预归一化,因为它能显著提升训练稳定性,减少损失尖峰,并可能无需学习率预热。演讲者引用了早期研究来支持这一观点,并提及了一个近期可能的新进展,暂称为“双重归一化”(double norm)。 此外,讲座预告了后续将讨论激活函数、前馈网络、注意力变体、位置编码等具体架构组件,以及隐藏层维度、词汇表大小等超参数的选择。

语言模型 Transformer架构 大型语言模型 模型训练 训练稳定性 架构演进 层归一化 RMSNorm 旋转位置编码 SwiGLU 注意力机制 超参数
已摘要 阅读时间:9 分钟(3084 个字) 2 summary versions