做网站工作室找客户难腾讯云服务器
2026/2/21 3:17:08 网站建设 项目流程
做网站工作室找客户难,腾讯云服务器,佳木斯哈尔滨网站建设,徐州网站平台随着大型语言模型#xff08;LLM#xff09;技术的飞速发展#xff0c;我们与AI的交互模式正在经历深刻的变革。从最初的简单问答#xff0c;到多轮对话#xff0c;再到如今能够自主规划、执行复杂任务的AI 智能体#xff08;Agent#xff09;#xff0c;当我们惊叹于A…随着大型语言模型LLM技术的飞速发展我们与AI的交互模式正在经历深刻的变革。从最初的简单问答到多轮对话再到如今能够自主规划、执行复杂任务的AI 智能体Agent当我们惊叹于AI的强大能力时一个常常被忽视但至关重要的概念正在悄然崛起它就是上下文工程Context Engineering。大模型在回答问题时并不是凭空知道一切而是根据你给它的提示Prompt和上下文信息来推理。就像一个学生考试时能不能答对题很大程度取决于题目本身是否明确、有没有提供必要条件。如果上下文给得不完整或模糊模型就可能答偏但如果上下文设计得合理模型就能发挥出最大效果。正如知名AI专家Andrej Karpathy所言“多数AI Agent的失败并非模型能力的失败而是上下文工程的失败。”本文将带你深入理解上下文工程的奥秘。什么是上下文刚开始接触大模型时大家都热衷于研究提示工程Prompt Engineering即怎么把问题问得更清楚才能让AI给出更好的答案。但随着AI应用越来越复杂人们发现光靠问得好远远不够。比如一个AI客服要想真正帮用户解决问题不仅需要接收用户当前的提问还得知道用户是谁、之前聊过什么、订单信息是什么……这些所有相关信息的总和就是上下文。而设计、管理这些信息的技术就是上下文工程。上下文工程与提示工程的本质区别提示工程和上下文工程常被混淆但其定位和目标截然不同。我们可以通过以下维度来区分提示工程的核心是优化单次输入让 AI 在特定任务中生成更优结果。例如给大模型输入“写一篇成都旅游攻略”效果不佳优化为 “给 20-25 岁女生做一份成都 3 天 2夜的旅游攻略人均预算约 3000 元重点推荐小众咖啡馆和拍照打卡点”输出质量显著提升。这是典型的提示工程聚焦于一次对话的输入优化。提示工程处理的是孤立的文本输入其优化对象是当前提示词的措辞、结构、格式。即使是多轮对话中的提示优化也局限于如何在本轮输入中更好地衔接上文本质上仍是对单轮文本的调整。上下文工程则追求构建 AI 的系统认知让 AI 不仅理解当前请求更能整合历史信息、用户特征、场景约束等多维度数据形成持续的理解能力。例如智能客服系统不仅能记住你 “昨天咨询过退货政策”还能结合 “你是 VIP 用户”“购买商品未满 7 天” 等信息直接给出 “退货免运费” 的解决方案无需重复解释。这是上下文工程的价值它让 AI 从单次应答升级为持续理解。上下文工程需要处理动态变化的信息网络包含三个层级即时信息当前用户的输入内容如“我想退这个商品”历史信息用户过去的交互记录如“3 天前购买未拆封”外部信息与场景相关的系统数据如“该商品支持 7 天无理由退货”“用户是 VIP免退货费”。这些信息并非静态存储而是通过算法实时关联、更新、筛选形成动态上下文网络。例如当用户说“退货”时系统会自动触发“查询订单状态→匹配退货政策→关联用户等级→计算运费”的链条这远超提示工程的文本优化范畴。总的来说提示工程是上下文工程的子集主要核心职能是优化指导性上下文。它侧重于单次交互的指令部分是一种更细粒度的、面向具体问题的工程实践。上下文工程则是一个更宏观、更具系统性的概念。它的目标是确保在任何给定时刻LLM都能获得最相关、最有效的信息从而实现最佳的推理和生成效果。你可以将上下文工程理解为一个总指挥它协调和优化各种上下文来源以达到整体最优的性能和效率。上下文的三大支柱要理解上下文工程我们首先要明确“上下文”的定义。我们往往会将上下文简单理解成历史聊天记录。但它其实是一个更为广阔、多维度的概念涵盖了提供给LLM的、用于完成下一步推理或生成任务的全部信息集合。如果将LLM或更广义的Agentic System视为一种新型操作系统LLM本身就像CPU而上下文窗口Context Window则如同RAM内存。上下文工程就是这个操作系统的“内存管理器”。它的职责并非简单地将数据塞满RAM而是通过复杂的调度算法决定哪些数据应该被加载、哪些应该被换出、哪些应该被优先处理从而保证整个系统的流畅运行和最终结果的准确性。这正是上下文工程的精髓所在。我们可以将上下文划分为以下三大核心类别指令上下文、知识上下文与操作上下文。指令上下文告诉AI怎么做事指令上下文的核心功能是指导模型“做什么”以及“如何做”。它为模型的行为设定了框架、目标和规则。例如系统提示System Prompt定义了模型的角色和行为准则少样本示例Few-shot Examples通过提供少量高质量的输入-输出对帮助模型理解任务模式结构化输出模式Structured Output Schema强制模型以特定格式如JSON、XML输出结果。提示工程主要就是优化这类指导性上下文。知识上下文告诉AI用什么知识知识性上下文的核心功能是告诉模型“需要知道什么知识”。它为模型提供解决问题所必需的事实、数据和知识。这包括检索增强生成RAGRAG 是提供知识上下文的最常用技术。它可以从外部知识库例如公司文档集合检索相关信息片段并将其添加到提示中。这使模型以具体、可验证的事实为基础显著减少幻觉并使其能够回答最新或专有信息的问题。虽然 RAG 通常作为一种单独架构被讨论但从更广泛的上下文工程视角来看RAG 是管理知识上下文的强大模式。实时 API 调用对于高度动态的信息例如天气预报可以通过从外部 API 获取的实时数据来增强上下文。系统识别何时需要这些数据并进行适当的 API 调用将结果插入上下文。数据库集成对于需要对结构化数据进行推理的应用程序系统可以查询数据库并将结果包含在上下文中。例如客服机器人可以查询系统以获取用户的购买历史记录然后再生成响应。操作上下文告诉AI当前状态操作上下文的核心功能是告诉模型“能做什么”以及“做了之后的结果”。它赋予模型与外部世界交互的能力。这包括短期记忆对话历史在上下文中包含最近的对话轮次可以让模型保持对话的连贯性理解后续问题并避免重复解释。长期记忆总结由于上下文窗口有限永久存储整个对话历史记录并不可行。长期记忆就是定期将过去的互动压缩成简洁、保留事实的摘要。比如聊了100轮后用一段文字概括核心内容。暂存器和工具输出存储器记录之前调用工具的结果让模型能够基于先前的结果进行构建而不是重复操作或丢失中间步骤。比如算过一次汇率后不用重复计算。模型上下文协议MCP如今大多数应用程序都需要手动将每次模型调用的历史记录、摘要和工具输出拼接在一起。这种方式既脆弱又跨平台不一致。MCP通过定义一种标准化的方式来表示操作上下文能把这些状态信息标准化让不同AI系统之间能共享上下文。例如对话状态、记忆摘要和工具使用情况可以以可移植的结构化格式共享切换LLM不需要从头开始重建上下文管道等。上下文的四大策略LLM上下文窗口有限一次只能看一定长度的文本比如几千到几十万Token超出就会“遗忘”。有效的上下文工程需要复杂的策略来管理这种有限的资源。这些策略可以分为四大类写入Write、选择Select、压缩Compress和隔离Isolate。写入上下文写入操作的核心是把智能体执行任务时需要的信息计划、记忆、中间结果等存储在上下文窗口之外避免占用有限的窗口空间同时确保后续可调用。具体分为两种方式草稿本Scratchpads就像做题时在草稿纸上演算AI 处理复杂任务时也需要临时记录空间。智能体制定任务计划后将计划存入草稿本而非上下文窗口防止窗口 Token 超限被截断。这是一种轻量级的、非持久化的写入用于简化当前任务的复杂性。记忆Memories用于跨会话/长期的信息持久化类似人类的长期记忆帮助智能体复用历史经验比如用户偏好、重要事实或历史记录结合向量存储、知识图谱实现长期存储。选择上下文从外部存储草稿本、记忆库、工具库等中筛选出与当前任务最相关的信息精准传入上下文窗口避免无关信息占用空间这就是选择的作用。确定性选取就像我们规定吃饭前必须先洗手AI 也可以遵循预设规则加载固定信息。例如Claude Code 会固定加载CLAUDE.md文件Cursor和Windsurf使用规则文件。这是一种简单高效的先验知识注入。模型驱动选取当信息太多比如有成百上千份文档预设规则不够用时模型可以利用自身能力判断哪些信息有用。检索式选取这是目前最常用的方式核心是通过相似度检索匹配信息从记忆、草稿纸或外部知识库中选取信息。压缩上下文压缩的目的是在不丢失关键信息的前提下用更少的Token存储内容让有限的空间容纳更多有效信息。上下文摘要当上下文快满时AI 会自动总结已有信息保留它认为最重要的部分。比如在处理长对话时系统会把 10 轮聊天浓缩成一句 “用户喜欢拍照打卡预算有限”既节省空间又保留关键信息。上下文修剪摘要通常使用LLM来提炼最相关的上下文片段而修剪通常是去除不相关的信息仅保留必要的结果例如从消息列表中删除较旧的消息。隔离上下文不同类型的上下文可能会相互干扰从而导致错误这有时被称为上下文中毒、干扰或混乱。多智能体系统隔离上下文最常用的方法之一是将复杂任务分解并将子任务分配给不同的智能体每个智能体都有各自独立的上下文窗口。这种关注点分离的方式比单个智能体试图同时管理所有上下文类型可以带来更可靠的性能。上下文与环境隔离指的是把模型的对话/推理上下文和运行环境分开管理防止相互干扰。通俗地说就像把想法记录在笔记本上而把实验操作放在实验室里笔记本里写的内容不会污染实验室实验室里的实验结果也不会直接改写笔记。技术上这意味着模型的上下文只保存逻辑推理、任务状态等信息而环境隔离层负责运行代码、调用工具或外部 API两者之间互不干扰从而保证安全性、稳定性和可复用性。小结上下文工程的出现标志着大模型应用已经从能回答问题走向能系统地思考和协作。未来无论是在多智能体协作还是在人机交互的各种场景里上下文工程都将是一种必不可少的基础能力。理解它就像理解操作系统之于计算机一样是迈向 AI 新时代的必修课。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容​一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容​

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询