音频媒体文件

清除
标签搜索结果 for "模型可解释性"
2025-03-04 | CS224N | Lecture 18 - NLP, Linguistics, Philosophy
2025-06-05 22:45

NLP语言学与哲学探讨及AI未来发展

自然语言处理 (NLP) 人工智能 (AI) 大型语言模型 (LLM) Transformer架构 分布语义 规模化定律 (Scaling Laws) AI伦理 模型可解释性 语言学与NLP AI风险 符号主义 vs 连接主义
已摘要 阅读时间:11 分钟(3602 个字) 1 summary version
2024-05-01 | Stanford CS25 V4 I Demystifying Mixtral of Experts
2025-05-20 13:31

Mixtral 8x7B:稀疏专家混合模型解析

人工智能 大语言模型 稀疏混合专家 Mixtral 8x7B 模型架构 推理效率 参数效率 模型可解释性 知识密集型任务 路由机制 开源模型
已摘要 阅读时间:12 分钟(3862 个字) 2 summary versions
2025-04-01 | Stanford CS25: V5 I Overview of Transformers
2025-05-18 15:29

讲座系统地介绍了transformers的基本原理与发展历程,内容包括词向量和上下文嵌入的演变、自注意力机制中查询、键和值的工作原理、位置编码与多头注意力的作用以及最终实现的模型架构。讲者阐述了大规模语言模型预训练的关键策略,如数据混合、两阶段训练以及与人类语言学习数据量对比带来的启示,并探讨了微调、链式思维推理、基于人类反馈的强化学习等后续优化方法。讲座还展示了transformers在自然语言处理、计算机视觉、语音、生物信息、机器人等多个领域的广泛应用,并展望了模型可解释性、终身学习、设备端部署和自我改进智能体的发展前景,同时提出了应对高计算成本和环境影响的挑战。

人工智能 (AI) Transformer 大型语言模型 (LLM) 预训练 训练后策略 思维链 (CoT) 强化学习 (RLHF) AI智能体 数据策略 模型可解释性 持续学习 通用人工智能 (AGI)
已摘要 阅读时间:22 分钟(7621 个字) 2 summary versions