音频媒体文件

清除
标签搜索结果 for "人工智能 (AI)"
2025-03-04 | CS224N | Lecture 18 - NLP, Linguistics, Philosophy
2025-06-05 22:45

NLP语言学与哲学探讨及AI未来发展

自然语言处理 (NLP) 人工智能 (AI) 大型语言模型 (LLM) Transformer架构 分布语义 规模化定律 (Scaling Laws) AI伦理 模型可解释性 语言学与NLP AI风险 符号主义 vs 连接主义
已摘要 阅读时间:11 分钟(3602 个字) 1 summary version
2025-05-23 | Stanford CS25 V4 I Behind the Scenes of LLM Pre-training: StarCoder Use Case
2025-05-20 13:14

Loubna Ben Allal在斯坦福CS25课程中分享了大语言模型(LLM)预训练背后的细节,以StarCoder为例探讨了训练高质量LLM所需的数据、模型架构与训练策略,并分析了开放与闭源模型的发展趋势及训练中的权衡问题。

大语言模型 (LLM) LLM预训练 StarCoder 数据质量 开源LLM 规模法则 (Scaling Laws) 合成数据 数据筛选与处理 代码大语言模型 模型评估与基准 负责任AI开发 人工智能 (AI)
已摘要 阅读时间:14 分钟(4696 个字) 3 summary versions
2025-04-01 | Stanford CS25: V5 I Overview of Transformers
2025-05-18 15:29

讲座系统地介绍了transformers的基本原理与发展历程,内容包括词向量和上下文嵌入的演变、自注意力机制中查询、键和值的工作原理、位置编码与多头注意力的作用以及最终实现的模型架构。讲者阐述了大规模语言模型预训练的关键策略,如数据混合、两阶段训练以及与人类语言学习数据量对比带来的启示,并探讨了微调、链式思维推理、基于人类反馈的强化学习等后续优化方法。讲座还展示了transformers在自然语言处理、计算机视觉、语音、生物信息、机器人等多个领域的广泛应用,并展望了模型可解释性、终身学习、设备端部署和自我改进智能体的发展前景,同时提出了应对高计算成本和环境影响的挑战。

人工智能 (AI) Transformer 大型语言模型 (LLM) 预训练 训练后策略 思维链 (CoT) 强化学习 (RLHF) AI智能体 数据策略 模型可解释性 持续学习 通用人工智能 (AGI)
已摘要 阅读时间:22 分钟(7621 个字) 2 summary versions
2025-04-08 | Stanford CS25: V5 I RL as a Co-Design of Product and Research, Karina Nguyen
2025-05-18 15:21

演讲者详细介绍了人工智能产品设计与强化学习研究相互协同的重要性,并通过多个实例展示了AI在教育辅助、交互式工具开发、前端应用及图像生成等领域的创新应用。她强调通过原型快速迭代和用户即时反馈构建更符合实际需求的评估系统,同时探讨了从预测生成到链式思考以及模型自我校准等技术演进路径,表达了对未来AI赋能人类创意与协作的乐观期待。

人工智能 (AI) 强化学习 (RL) 产品研究协同 大型语言模型 (LLM) 模型后训练 AI对齐 人机协作 合成数据 评估指标 (Evals) 奖励机制设计 生成式UI 创造力赋能
已摘要 阅读时间:22 分钟(7589 个字) 2 summary versions