音频媒体文件
标签搜索结果 for "深度学习"
Vision Transformer (ViT) Explained By Google Engineer | MultiModal LLM | Diffusion
2025-06-15 21:05
Vision Transformer (ViT)
计算机视觉
多模态LLM
自注意力机制
图像编码
深度学习
Transformer架构
CLIP模型
图像生成
Patch Embedding
全局上下文建模
人工智能
已摘要
阅读时间:13 分钟(4289 个字)
3 summary versions
2025-03-04 | Transformer Deep Dive with Google Engineer | Foundation of LLMs and Modern AI
2025-06-15 20:50
人工智能
深度学习
自然语言处理
Transformer架构
LLM
注意力机制
位置编码
多头注意力
KV缓存
归一化技术
模型推理优化
已摘要
阅读时间:17 分钟(5776 个字)
3 summary versions
应用深度学习 | 陈縕侬 | ADL 8.2: Parameter-Efficient Fine-Tuning (Adapter, LoRA) 如何低成本微调模型
2025-06-07 14:14
参数高效微调
大语言模型
LoRA
Adapter Tuning
深度学习
模型微调
低成本微调
低秩适配
指令微调
已摘要
阅读时间:6 分钟(1895 个字)
2 summary versions
2022-10-30 | Lex Fridman Podcast | Andrej Karpathy: Tesla AI, Self-Driving, Optimus, Aliens, and AGI
2025-06-02 10:26
人工智能
神经网络
深度学习
AGI
自动驾驶
Tesla AI
OpenAI
Andrej Karpathy
合成智能
Optimus
已摘要
阅读时间:21 分钟(7165 个字)
3 summary versions
BiliBili | IBM RethinkFun | 三分钟学会大模型PEFT的LORA算法 lora_rank lora_alpha
2025-06-01 22:18
LoRA算法
参数高效微调
大模型
人工智能
深度学习
低秩适应
模型微调
权重矩阵
lora_rank
lora_alpha
计算效率
已摘要
阅读时间:4 分钟(1298 个字)
1 summary version
2025 MIT | MIT 6.S191: Recurrent Neural Networks, Transformers, and Attention
2025-05-18 16:28
深度序列建模
循环神经网络 (RNN)
自注意力机制
Transformer 模型
大型语言模型 (LLMs)
自然语言处理 (NLP)
梯度问题
长期依赖
深度学习
MIT 6.S191
已摘要
阅读时间:9 分钟(3079 个字)
2 summary versions
Stanford CS336 Language Modeling from Scratch | Spring 2025 | Scaling laws
2025-05-17 21:56
LLM
Scaling Laws
模型训练
超参数优化
Chinchilla法则
IsoFLOP分析
μP
数据伸缩
模型伸缩
训练效率
深度学习
已摘要
阅读时间:13 分钟(4437 个字)
2 summary versions
Stanford CS25: V2 I Introduction to Transformers w/ Andrej Karpathy
2025-05-16 20:54
Transformers
深度学习
自然语言处理
注意力机制
模型架构
人工智能
计算机视觉
GPT模型
上下文学习
AI发展史
计算效率
未来AI
已摘要
阅读时间:14 分钟(4802 个字)
3 summary versions
Stanford CS224N: NLP with Deep Learning | Spring 2024 | Lecture 11 - Benchmarking by Yann Dubois
2025-05-16 20:35
自然语言处理
机器学习
深度学习
基准测试
模型评估
大型语言模型
文本生成
文本分类
评估指标
数据污染
人工评估
LLM评估器
已摘要
阅读时间:14 分钟(4806 个字)
2 summary versions
Stanford CS224N: NLP with Deep Learning | Spring 2024 | Lecture 6 - Sequence to Sequence Models
2025-05-15 22:01
自然语言处理
深度学习
循环神经网络
LSTM
语言模型
困惑度
梯度消失
序列到序列模型
神经机器翻译
编码器-解码器模型
已摘要
阅读时间:9 分钟(3048 个字)
2 summary versions