网站下载免费的视频软件门户网站的特点和优势
2026/4/6 18:13:24 网站建设 项目流程
网站下载免费的视频软件,门户网站的特点和优势,怎么做网站关键词搜索,万网空间管理从提示工程向上下文工程转变标志着AI应用开发的新范式。上下文工程关注如何系统性地准备AI推理所需的所有信息#xff0c;而非仅优化提示词。它包含四大策略#xff1a;写入/代理式内存、压缩/精炼、隔离/分治、选择/RAG升级。为解决上下文腐烂…从提示工程向上下文工程转变标志着AI应用开发的新范式。上下文工程关注如何系统性地准备AI推理所需的所有信息而非仅优化提示词。它包含四大策略写入/代理式内存、压缩/精炼、隔离/分治、选择/RAG升级。为解决上下文腐烂问题文章提出三层架构数据与知识层、语义层、代理与编排层。这一转变使开发者从与AI聊天的人进化为AI系统架构师构建更高效可靠的AI系统。想象一下你让你的 AI 差旅助手“小智”去“预订下个月去朝阳开会的酒店”。几秒钟后它回复“搞定我为您预订了汉庭酒店位于辽宁省朝阳市。”你很生气但转念一想这可能是你的错。你没有说清楚是“北京市朝阳区”。这是**提示工程Prompt Engineering**的失败。于是你吸取教训发出了更明确的指令“在北京市朝阳区帮我订三里屯附近的酒店预算1000 一晚。“小智迅速完成了预订。然而当你提交报销时却被财务拒绝了因为这远远超过了你公司 500 元/晚的差旅标准。这一次你很难再责怪自己。一个真正智能的助手难道不应该被“工程化”地接入你的日历工具以自动知晓会议地点并主动查询公司的差旅政策RAG来提醒你预算超标吗这个case正是“提示工程”的上限和“上下文工程”Context Engineering的起点。一场已经发生的认知革命从“提示”到“上下文”过去两年我们都痴迷于“提示工程”——试图找到那句能让 AI 产生惊艳结果的“魔法咒语”。但 AI 领域的顶尖实践者们已经开始转向一个更宏大、更系统的领域。“Context Engineering”的概念源于几个大神在 X 中的讨论。Shopify 的 CEO Tobi Lütke 在 2025年6月19号 首先提出了“Context Engineering”我真的更喜欢“上下文工程”这个词而不是“提示工程”。它更好地描述了核心技能提供任务所需的所有上下文使其能被 LLM 合理地解决。这个观点迅速得到了 Andrej Karpathy 的响应他将其拔高到了“工业级应用”的层面为“上下文工程”点赞。……在每一个工业级的 LLM 应用中上下文工程都是一门精细的艺术和科学它要做的就是在下一步中用恰到好处的信息填满上下文窗口。最后BloomTech 的 CEO Austen Allred 发表了极具冲击力的总结上下文工程比提示工程强 10 倍。为什么他们都在强调要从“提示工程”向“上下文工程”转变因为我们构建 AI 的方式已经发生了根本变化。到底什么是上下文工程如果说“提示工程”关心的是“你问什么”那么“上下文工程”关心的就是“你如何准备让模型来回答”。它不再是关于设计单个指令文本而是演变为一门系统级的学科在 AI Agent 执行任务的每一步动态地、程序化地组装和优化 LLM 在推理时看到的所有信息。一个简单的公式可以概括上下文工程 提示工程 RAG 工具 内存 任务状态 …Andrej Karpathy 有一个最棒的比喻LLM 是 CPU上下文窗口就是它的 RAM。“提示工程”就像是在 RAM 里写一个简单的脚本。而“上下文工程”则是构建一个完整的操作系统它需要决定在每一纳秒哪些数据应该被加载进 RAM哪些应该被清除哪些应该被压缩后存入硬盘。IBM 表示一个 AI Agent 最终在运行时看到的“总提示词”可能只有 20% 是你写的静态指令而 80% 是由上下文工程动态组装的内容如 RAG 的检索结果、内存中的事实、工具的 API 响应等。一个设计精良的上下文“信息有效载荷”information payload通常由以下组件构成指令提示词Instruction Prompt系统提示词用于设定 AI 的角色、规则和必须遵循的原则和工作流程。知识Knowledge通过 RAGRetrieval-Augmented Generation检索增强生成、GraphRAGGraph Retrieval-Augmented Generation图谱检索增强生成 或 API 检索到的内/外部数据。内存 Memory短期对话历史和长期跨会话的用户偏好等。工具Tools工具的 API 规范告知 AI 它能做什么和工具的响应告知 AI 它刚做了什么得到了什么结果。状态State一个“暂存器”Scratchpad用于跟踪多步骤任务的进展。输出结构Output Structure强制模型按特定 JSON 或 XML Schema 输出的指令以便下游系统解析。核心挑战“天真 RAG” 与 “上下文腐烂”在深入实践之前我们必须理解上下文工程要解决的核心问题。首先我们必须弄清一个概念“天真 RAG”Naive RAG。“天真 RAG” 是我们最早接触 RAG 时的做法1. 将一堆 PDF 文档无脑切成小块Chunking2. 将这些碎块全部“向量化”Embedding后塞进向量数据库3. 当用户提问时捞出最相似的 5 到 10 个碎块原理将问题Embedding然后在向量数据库中计算”问题向量“和”知识向量“的”余弦相似度“越相似则向量间的夹角越小然后把它们和问题一起塞给 LLM。你可能会想现在上下文窗口越来越大从 128K 到 1M Token我把所有资料都塞进去不就行了这是一个致命的误解。这里边存在一个核心悖论“上下文腐烂”Context RotAnthropic 的“大海捞针”测试和 Chroma 的研究都表明上下文窗口是一种有限的“注意力预算” Attention Budget。当上下文中的信息Token过多时模型准确回忆和利用信息的能力反而会急剧下降。上下文“失败模式”简单地塞满上下文会导致上下文中毒Context Poisoning不相关或错误的信息会“污染”模型的推理。上下文混淆Context Confusion过量即使相关的信息也会“淹没”模型使其分心tips模型天然对上下文的头部和尾部的内容注意力更高。因此上下文工程的真正目标是追求 Anthropic 所提出的的“最小可行的高信号 Token 集” smallest possible set of high-signal tokens。我们不再是“信息填充者”而是“信息规划者”。工程应用的四大核心策略那么我们具体该如何“工程化”这个 ”RAM“ 1. 写入Write/ 代理式内存Agentic Memory是什么允许 Agent “记笔记”。将关键事实、中间结论或用户偏好写入到上下文窗口之外的持久化存储中例如一个 NOTES.md 文件或专用的内存工具。举例Anthropic 曾展示 Claude 玩《宝可梦》。它会在游戏过程中不断地“记笔记”比如“我正在1号公路训练皮卡丘目标10级已完成8级”。当上下文窗口重置后它会“读回笔记”从而实现跨越数小时的长周期任务。2. 压缩Compress/ 精炼是什么当上下文接近极限时主动进行“有损压缩”。Anthropic 将之称为 “Compaction”。举例最简单却高效的技巧是“工具结果清理”Tool result clearing。假设 AI 调用了一个 API 来查询订单该 API 返回了一个包含 1000 个 Token 的巨大 JSON。在“压缩”策略下AI 在确认信息后会丢弃这个 JSON只在上下文中保留一句“状态订单 8975 已确认”从而释放 990 个宝贵的 Token 空间。3. 隔离Isolate/ 分治是什么通过“子代理架构”Sub-agent Architectures将复杂任务分解。举例来自 Human Layer 团队的实践一个“主代理”需要在一个复杂代码库中查找功能 。它启动一个“搜索子代理”。这个子代理可以在自己的上下文窗口中“消耗”50,000 个 Token读取文件、grep、分析依赖这个过程是“脏”和“高噪音”的。但它最终只向主代理返回一个 50 Token 的摘要“功能 X 位于 utils/auth.py 第 42 行”。主代理的上下文因此保持了“干净”和“高信号”。4. 选择Select/ RAG升级是什么这是 RAG 的进化版。代理在需要时主动“选择”要拉取什么信息放入上下文。举例这不再是“天真 RAG”。一个成熟的代理会混合使用多种工具来实现“即时上下文” (Just-in-Time Context) 任务总结一下‘XX项目’的风险。选择1GraphRAG查询知识图谱获取结构化关系谁是项目经理依赖哪些项目选择2API工具调用 Jira API 获取实时数据有哪些未解决的 P0 Bug选择3文件工具grep 代码库查找关键实现//TODO: HACK选择4向量检索最后才使用向量检索“找找看还有哪些文档和风险相关。上下文工程的三层架构理论很清晰但在一个复杂系统中尤其是企业应用如何将这些策略落地答案是构建一个分层的架构实现可治理、可扩展的 AI Agent。L1数据与知识层The Source Layer这是所有信息的源头也是上下文工程的“弹药库”。作用存储企业的所有知识包括结构化数据数据库、半结构化数据JSON、API和非结构化数据PDF、文档。如何构建向量数据库Vector DBs这是“天真 RAG”的基础。通过“Chunking-Embedding”的方式处理非结构化文档。知识图谱Knowledge Graph – KG这是 RAG 的进化即 GraphRAG。知识图谱不再存储“扁平的文本块”而是存储实体Entities和关系Relationships。举例天真 RAG你问“‘XX项目’的负责人是谁”它从 PDF 中检索出 10 个包含“XX项目”和“负责人”的段落答案可能就藏在其中。GraphRAG你问同样的问题它直接从 KG 中返回一个精确的事实{实体: “张三”} -[关系: LEADS]- {实体: “XX项目”} 。这极大提升了检索的准确性和可解释性。一张表看懂 天真 RAG 和 GraphRAG 对比维度Naive RAG天真 RAGGraphRAG知识图谱 RAG定义一种通过检索“相似文本块”来增强 LLM 上下文的技术。一种通过检索“结构化事实”来增强 LLM 上下文的先进技术。核心思想查找相似性假设与问题语义相似的文本块包含答案。推理关联性假设答案隐藏在数据间的结构化联系中。知识准备Indexing1.分块Chunking将文档切割成独立的文本块。 2.嵌入Embedding将每个文本块“翻译”成向量。 3.存储存入向量数据库Vector DB。1.提取Extraction从所有数据中提取“实体”和“关系”。 2.构建Construction将实体和关系连接成一个图谱。 3.存储存入图数据库Graph DB。知识检索Retrieval1.查询嵌入将用户问题“翻译”成一个查询向量。 2.向量搜索使用余弦相似度Cosine Similarity在数据库中查找“夹角”最小的 K 个向量。 3.返回返回 K 个原始文本块Top-K Chunks。1.查询解析将用户问题“翻译”成一个图查询语句 (如 Cypher由 Neo4j 公司开发的目前最主流的图查询语言)。 2.图谱遍历在图谱中定位节点并沿着“关系”边进行遍历。 3.返回返回一个精确的子图谱Subgraph或事实。数据结构扁平的、非结构化的、互相隔离的文本块。结构化的、互相连接的“实体”Nodes与“关系”Edges。核心能力语义搜索Semantic Search多跳推理Multi-hop Reasoning答案质量基于零散文本块的“总结”或“猜测”可能存在噪音或矛盾。基于结构化事实的“精确回答”逻辑清晰噪音低。可解释性较低。“答案可能来自这 5 个段落但不知如何组合。”极高。“答案遵循了 A - B - C 的精确推理路径。”典型用例简单的文档问答、客服机器人、文章摘要。复杂的企业知识推理、金融反欺诈、科研、供应链分析。举例提问“XX项目”的负责人是谁结果返回 5 个同时包含“飞龙项目”和“负责人”的文本段落**。**提问“XX项目“的负责人是谁结果返回一个精确的事实**{XX项目} – [负责人是] - {张三}**L2语义层The Semantic Layer这是最关键、也最容易被忽视的一层。它是数据和 AI 之间的“翻译官”和“治理者”。作用它是一个集中的“元数据中心”用于标准化数据定义和治理策略。为什么至关重要它解决了“巴别塔”问题由圣经《创世纪》中“巴别塔”故事所引发的象征性困境具体来说就是由于语言不通造成的沟通障碍和合作失败。举例情景1没有 L2AI 瞎猜用户提问上季度我们的“活跃用户”有多少**AI 的困境 AI 在数据层L1发现两个冲突的定义****销售库L1active_users 30天内付费的用户。产品库L1dau 24小时内登录的用户。**结果AI 彻底懵了只能瞎猜一个比如它猜了“登录”用户导致给出了一个完全错误的答案。情景2有了 L2AI 查字典L2 是一个由****人类专家预先定义好的“权威业务词典”。AI 不再需要猜测。在这个“词典”里人类已经写明了一条“唯一事实”“活跃用户”业务术语 30天付费的用户业务定义 [执行这条 SQL 查询 sales_db]。现在 AI 的工作流被彻底改变了AI 先向 L2 提问“活跃用户”的定义是什么L2 响应这是“活跃用户”的唯一定义以及它的SQL 查询语句。AI 执行 L1AI 拿着 L2 给的“标准答案”SQL去 L1 的 sales_db 中执行得到 100% 准确的结果。总结L2 语义层不存数据只存“定义”和“权威指令”。它确保了 Agent 在面对复杂业务时其行为 100% 可控、可预测并始终与人类专家的业务口径保持一致。L3代理与编排层The Agentic Layer这是上下文工程的“指挥中心”和“CPU”。作用这是 Agent 本身所在的地方。它负责接收用户目标并执行上文提到的“四大策略”写入、压缩、隔离、选择。如何构建使用 LangChain 的 LangGraph、LlamaIndex 的 Workflows 、 Anthropic 提出的“规范驱动工作流”或自行开发来编排 Agent 的行为。举例三层联动目标用户要求“总结一下‘XX项目’的风险”。查询 L2语义层Agent 首先访问 L2查询“XX项目”和“风险”的定义。L2 告诉它“相关数据在知识图谱A查状态和 Jira API B查Bugs”。选择L3Agent 选择并调用 GraphRAG 工具和 Jira 工具。检索L1它从 L1 的知识图谱中拉取‘XX项目’的状态并调用 Jira API 获取最新的 Bug 报告。写入/压缩L3它得到了两个巨大的 JSON 响应。它使用“Write”策略将它们放入“暂存器”并使用“Compress”策略将其总结为几个关键风险点。响应最后它基于这些精炼过的“高信号”上下文生成一份准确的总结报告。总结从“提示工程”到“上下文工程”的转变标志着我们从“与 AI 聊天的人”进化为“AI 系统架构师”。提示工程给你带来更好的问题上下文工程给你带来更好的系统。AI 应用开发不再是比拼谁的提示词写得更巧妙而是比拼谁能构建出更高效、更可靠的上下文供给系统。这不再是一个“提示”问题这是一个“架构”问题例如构建一个三层架构利用知识图谱提供结构化知识利用语义层实现治理和统一理解等。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询