音频媒体文件

清除
标签搜索结果 for "提示工程"
2025-01-31 | VS Code | Get Started with GitHub Copilot in VS Code (2025)
2025-06-22 19:42

VS Code中的GitHub Copilot:从免费入门到高效开发全攻略

GitHub Copilot AI编程助手 VS Code 代码补全 开发者效率 生成式AI 多文件编辑 免费试用 软件开发 提示工程
已摘要 阅读时间:6 分钟(1885 个字) 2 summary versions
2024-08-17 | AI Engineer | Building with Anthropic Claude: Prompt Workshop with Zack Witten
2025-06-10 12:39

AI提示工程实战工作坊:优化技巧与案例解析

人工智能 Anthropic Claude 提示工程 大语言模型 Claude 3.5 Sonnet 少样本学习 思维链 JSON输出 XML标签 (提示) 模型幻觉 API集成 Artifacts (Anthropic)
已摘要 阅读时间:11 分钟(3750 个字) 2 summary versions
2025-02-05 | Agentic AI: A Progression of Language Model Usage
2025-06-06 20:18

Agentic AI 语言模型的应用与设计模式解析

智能体AI 大语言模型 检索增强生成 (RAG) 工具使用 提示工程 ReAct框架 多智能体协作 模型幻觉 AI应用开发 反思模式 (Reflection)
已摘要 阅读时间:8 分钟(2680 个字) 1 summary version
2025-05-30 | Y Combinator | State-Of-The-Art Prompting For AI Agents
2025-06-06 20:12

AI代理提示工程的前沿实践与挑战

提示工程 AI代理 元提示 LLM 评估集 AI初创公司 垂直AI 前线部署工程师 AI客户支持 三层提示架构
已摘要 阅读时间:7 分钟(2230 个字) 1 summary version
B站 | 微软Reactor_SH | 玩转 GitHub Copilot|GitHub Copilot 使用技巧 - 项目架构
2025-06-05 16:18

GitHub Copilot 使用技巧与项目架构设计

GitHub Copilot AI辅助编程 项目架构 生成式AI 提示工程 软件开发生命周期 代码生成 开发效率 Copilot Chat Copilot Workspace 人工智能 软件开发
已摘要 阅读时间:8 分钟(2724 个字) 1 summary version
Stanford CS25: V5 I Large Language Model Reasoning, Denny Zhou of Google Deepmind
2025-05-27 21:30

大型语言模型推理能力解析:从思维链到解码策略

人工智能 大型语言模型 (LLM) LLM推理 思维链 (CoT) 解码策略 迭代式微调 (IFT) 自洽性 (Self-Consistency) 模型自改进 检索增强推理 提示工程 谷歌DeepMind 涌现能力
已摘要 阅读时间:11 分钟(3800 个字) 2 summary versions
Stanford CS224N | 2023 | Lecture 10 - Prompting, Reinforcement Learning from Human Feedback
2025-05-16 21:06

该讲座由斯坦福大学的Jesse Mu博士主讲,核心内容是大型语言模型(LLM)中的提示(prompting)、指令微调(instruction fine-tuning)以及从人类反馈中强化学习(RLHF),这些技术是驱动近期如ChatGPT等聊天机器人发展的关键。 讲座首先提及了课程的一些安排,包括项目提案截止、作业提交以及课程反馈调查。 随后,讲座深入探讨了大型语言模型的发展趋势:模型规模持续扩大,训练数据量不断增加。这使得LLM不仅能预测文本序列,还开始展现出对世界更深层次的理解,例如学习句法、共指消解、情感分析,甚至发展出初步的“世界模型”能力。一个例子表明,LLM能根据输入文本中描述的人物背景(如是否为物理学家)来推断其对物理现象(如真空环境下保龄球和树叶同时落地)的认知。此外,LLM在处理百科知识、数学推理、代码生成乃至医学文本方面也显示出潜力。 讲座的主要目标是阐释如何将仅能预测下一个词的基础语言模型,逐步转化为能执行多样化任务的智能助手,类似ChatGPT。为此,讲座计划分阶段介绍三种技术路径: 1. 零样本(zero-shot)和少样本(few-shot)学习; 2. 指令微调; 3. 从人类反馈中强化学习(RLHF)。 讲座接着详细介绍了零样本和少样本学习。回顾了早期的GPT模型(2018年,1.17亿参数),它是一个仅解码器的语言模型,通过预训练来提升下游任务的性能。随后发布的GPT-2(2019年,15亿参数)在模型规模和训练数据(40GB的WebText数据集,通过筛选Reddit高质量链接构建)上都有显著提升。GPT-2的重要贡献在于揭示了语言模型具备“无监督多任务学习”的能力,特别是零样本学习。这意味着模型无需针对特定任务进行额外的梯度更新或微调,仅通过设计合适的输入提示(将任务转化为序列预测问题),就能执行多种未曾明确训练过的任务。例如,通过提供上下文和问题,让模型续写答案来进行问答;或者通过比较不同句子序列的生成概率来解决需要世界知识的代词消歧任务(如Winograd模式挑战)。GPT-2在当时仅凭零样本学习就在多个语言建模基准测试中取得了领先水平,且无需针对特定任务进行微调。

大型语言模型 自然语言处理 提示工程 指令微调 RLHF 强化学习 零样本学习 少样本学习 链式思维 AI对齐 奖励模型
已摘要 阅读时间:14 分钟(4761 个字) 1 summary version
Stanford CS224N: NLP w/ DL | Spring 2024 | Lecture 14 - Reasoning and Agents by Shikhar Murty
2025-05-16 21:03

该讲座主要探讨了语言模型在推理领域的应用。首先,讲座定义了推理是利用事实和逻辑得出答案的过程,并区分了演绎推理、归纳推理和溯因推理三种主要类型,同时提及形式与非形式推理,指出讲座重点关注多步骤的非形式演绎推理。 接着,讲座探讨了通过提示工程(prompting)引导大型语言模型进行推理的多种方法。其中包括“思维链”(Chain-of-Thought, CoT)提示,即引导模型在给出答案前生成推理步骤,可通过上下文示例或“让我们一步一步思考”等简单指令实现。“自洽性”(Self-Consistency)方法通过对同一问题采样多个推理路径和答案,并选取最常见答案来提升准确性,其效果优于简单模型集成。针对多步骤推理,提出了“由少至多”(Least-to-Most)提示法,它将复杂问题分解为子问题,模型逐步解决并整合答案,显示了其处理复杂推理的潜力,尽管其根本性优势尚待验证。 最后,讲座讨论了超越提示工程的策略,如通过知识蒸馏将推理能力赋予小型语言模型。以Orca模型为例,它通过微调使小型Llama模型模仿GPT-4生成的解释和推理过程。训练数据通过结合Flan V2等数据集的指令与GPT-4在特定系统提示下(如要求分步解释)生成的详尽回答来构建。讲座强调,相关领域的研究多为近三四年成果,尚有许多未解问题。

自然语言处理 (NLP) 大型语言模型 (LLMs) AI推理 AI智能体 提示工程 思维链 (CoT) 知识蒸馏 视觉语言模型 (VLMs) 机器学习 AI研究 模型评估
已摘要 阅读时间:14 分钟(4652 个字) 2 summary versions
Stanford CS224N: NLP with Deep Learning | Spring 2024 | Lecture 10 - Post-training by Archit Sharma
2025-05-15 22:42

斯坦福大学博士生 Archit Sharma 介绍了大型语言模型的后训练(post-training)过程,旨在阐释如何从基础的预训练模型发展到如 ChatGPT 这样强大的模型。 他首先强调了“规模法则”(scaling laws)的重要性:随着模型参数量(计算量从10^24浮点运算增至超过10^26)和训练数据量(从2022年的1.4万亿词元增至2024年Llama 3的约15万亿词元)的持续增长,模型能力不断提升,但同时也带来了巨大的成本投入。 预训练不仅让模型学习事实知识、语法、语义和多种语言,更重要的是,模型开始展现出理解人类信念、行为和意图的深层能力。例如,模型能根据情境中人物的背景知识预测其不同反应,或在数学、编程(如Copilot辅助编码)、医学(初步诊断,但不建议作为医疗建议)等领域展现应用潜力。尽管预训练任务本质上是预测下一个词元,但模型正演变为通用的多任务助手。 讲座的核心内容将依次探讨: 1. 零样本(Zero-Shot)和少样本(Few-Shot)上下文学习(In-Context Learning)。 2. 指令微调(Instruction fine-tuning)。 3. 基于人类偏好的优化方法(如DPO和RLHF)。 4. 探讨当前技术的局限与未来发展方向。 以GPT系列模型为例,从GPT-1到GPT-2,通过扩大模型规模和数据量,GPT-2展现了零样本学习能力,即模型无需针对特定任务进行额外训练,仅通过巧妙设计提示(prompting),就能执行如文本摘要、问答等多种任务。

大型语言模型 后训练 指令精调 RLHF DPO 上下文学习 零样本学习 少样本学习 提示工程 AI对齐 规模法则 ChatGPT
已摘要 阅读时间:12 分钟(3939 个字) 2 summary versions