音频媒体文件

清除
标签搜索结果 for "模型微调"
应用深度学习 | ADL TA Recitation: LLM LoRA Training 大型语言模型太大怎么调整呢?
2025-06-07 14:18

LLM训练技巧与LoRA方法解析

大型语言模型 LoRA QLoRA 参数高效微调 模型微调 模型量化 GPU显存优化 人工智能 Instruction Tuning bfloat16
已摘要 阅读时间:5 分钟(1691 个字) 1 summary version
应用深度学习 | 陈縕侬 | ADL 8.2: Parameter-Efficient Fine-Tuning (Adapter, LoRA) 如何低成本微调模型
2025-06-07 14:14

深度学习模型微调新方法:Adapter与LoRA的高效实践

参数高效微调 大语言模型 LoRA Adapter Tuning 深度学习 模型微调 低成本微调 低秩适配 指令微调
已摘要 阅读时间:6 分钟(1895 个字) 2 summary versions
AI Bites | LoRA (Low-rank Adaption of AI Large Language Models) for fine-tuning LLM models
2025-06-01 22:24

LoRA:高效微调大语言模型的低秩适配方法

人工智能 LLM LoRA PEFT 模型微调 参数高效 低秩 低秩分解 Transformer注意力 推理无延迟 部署优化 权重合并
已摘要 阅读时间:6 分钟(1824 个字) 1 summary version
AI Bites | QLoRA paper explained (Efficient Finetuning of Quantized LLMs)
2025-06-01 22:22

QLoRA详解:高效微调量化大语言模型的三大创新技术

QLoRA LLM 模型微调 模型量化 显存优化 NF4 双重量化 分页优化器 人工智能 LoRA 单GPU训练
已摘要 阅读时间:6 分钟(1966 个字) 1 summary version
BiliBili | IBM RethinkFun | 三分钟学会大模型PEFT的LORA算法 lora_rank lora_alpha
2025-06-01 22:18

LORA算法原理与参数高效微调技巧

LoRA算法 参数高效微调 大模型 人工智能 深度学习 低秩适应 模型微调 权重矩阵 lora_rank lora_alpha 计算效率
已摘要 阅读时间:4 分钟(1298 个字) 1 summary version
LoRA (Low-Rank Adaptation) Intro By Google Engineer | LLM Parameter-Efficient Fine-Tuning
2025-05-31 20:13

LoRA技术详解:高效微调大模型的创新方法

LoRA 大语言模型 参数高效微调 模型微调 QLoRA 计算资源优化 人工智能 量化 (AI) 任务隔离 Adapter Tuning DoRA
已摘要 阅读时间:9 分钟(3136 个字) 1 summary version
MIT | Liquid AI | Introduction to LLM Post-Training
2025-05-18 16:19

该转录内容阐述了大型语言模型在预训练后的后训练过程。讲者指出,预训练阶段仅使模型具备下一个令牌预测能力,而后训练则通过监督微调和偏好对齐两步,将基础模型转变为能理解指令、回答问题的实用助手。文中区分了通用微调、领域特定微调和任务特定微调三种方式,并说明了不同方式在数据规模和质量要求上的区别。讲解还涉及了何时采用微调技术,如改变回答语气、注入领域知识、模型蒸馏以及针对特定任务优化,同时强调了持续评估与迭代的重要性。最后,内容还总结了构建高质量数据集的三大要素:准确性、多样性和复杂性。

LLM 后训练 监督微调 偏好对齐 大语言模型 模型微调 数据质量 模型合并 模型评估 测试时计算扩展 人工智能 参数高效微调
已摘要 阅读时间:16 分钟(5408 个字) 2 summary versions