淮安做网站wordpress安装问题
2026/2/17 10:32:40 网站建设 项目流程
淮安做网站,wordpress安装问题,2345网址导航怎么下载,网站怎么更新数据上下文工程是AI应用的核心技术#xff0c;本质是优化LLM能看到的内容#xff08;system提示、工具描述和对话历史#xff09;。从开发者角度看#xff0c;涉及系统提示设计、动态信息注入、消息管理和成本控制#xff1b;从用户角度看#xff0c;是主动提供A…上下文工程是AI应用的核心技术本质是优化LLM能看到的内容system提示、工具描述和对话历史。从开发者角度看涉及系统提示设计、动态信息注入、消息管理和成本控制从用户角度看是主动提供AI无法获取的个人信息。各种AI技术如工具调用、记忆、RAG和Agent框架本质上都是上下文管理。优秀的上下文工程能让小模型媲美大模型是AI时代的必备能力。一、AI 能看到什么在讨论任何 AI 技术之前我们需要先回答一个最基础的问题LLM 到底能看到什么答案比你想象的简单。无论你用的是 ChatGPT、Claude、还是任何其他大模型当你发起一次请求时从内容层面看模型主要接收的是两大块信息注不同 API 的具体结构略有差异比如 Claude API 把 system 作为单独字段但本质相同。此外还有 temperature、top_p 等超参数影响解码方式这里聚焦于内容层面。从概念上我们可以把输入内容分为三类•system系统提示定义 AI 的身份、行为准则、基础能力通常在 messages 的开头•tools工具描述告诉 AI 它可以调用哪些外部能力•messages对话历史用户输入、AI 回复、工具调用结果等无论产品做得多复杂、功能多花哨最终都要归结到一个问题往这些字段里填什么。这就是上下文工程Context Engineering的本质。二、两类人同一个问题2.1 策略工程师的视角对于 AI 产品的开发者来说上下文工程是他们的核心工作。他们每天面对的问题是System Prompt 怎么写• 基础指令如何定义• 什么领域知识需要注入• 边界条件如何设置• 人设如何保持一致动态信息怎么注入• 用户画像什么时候加载• RAG 检索结果放在哪里• 实时数据如何格式化• 多少信息量是合适的Messages 如何管理• 历史对话保留多少轮• 超出 token 限制怎么压缩• 哪些信息是关键的不能丢• 如何避免上下文污染成本如何控制• 每次请求的 token 消耗• 信息冗余如何减少• 缓存策略如何设计• 效果和成本的平衡点在哪里一个优秀的 AI 产品和一个平庸的 AI 产品底层可能用的是同一个模型。差距就在于上下文工程的水平。正如 Manus 团队所说他们选择不自己训练模型、不靠微调而是全力投注在上下文工程上。这让他们能够在数小时内发布改进而不是数周。2.2 用户的视角普通用户通常被屏蔽了这些细节。他们面对的只是一个聊天框输入自然语言等待回复。但问题是如果你只用聊天框你就只能获得平均水平的体验。AI 不知道• 你是谁• 你的专业背景• 你的偏好习惯• 你之前的使用经历• 你对输出格式的期望每一次对话对 AI 来说都是第一次见面。这就是为什么很多用户觉得 AI “不懂我”、“不稳定”、“需要反复解释”——因为你没有做上下文工程。用户侧的上下文工程就是主动告诉 AI 那些它无法自动获取的信息。现在很多产品开始提供这种能力产品机制本质ChatGPTCustom Instructions / Memory用户可编辑的持久化 system promptClaudeCLAUDE.md 文件项目级别的上下文注入GeminiUser Context结构化的用户偏好存储Cursor.cursorrules代码项目的规则定义这些机制的本质都一样让用户参与上下文的构建。2.3 一个类比想象你去看医生。如果你只说我不舒服医生很难帮你。他需要知道• 你的病史• 过敏情况• 最近的生活状态• 具体哪里不舒服• 持续多长时间这些信息就是上下文。医院会有你的病历档案持久化的上下文医生会先问诊动态收集上下文然后结合专业知识给出诊断。AI 也是一样。它的专业能力已经在参数里了但它需要足够的上下文才能发挥出来。三、统一视角所有进化都是上下文管理现在让我们用这个视角重新审视 AI 领域的各种技术概念。3.1 Tool 的本质当我们说给 AI 加上工具时本质上是在做什么往 tools 字段里填充工具描述。AI 并不是真的学会了搜索。它只是看到了工具描述理解了什么时候该用生成了调用请求收到了调用结果注入到 messages 里基于结果继续回答Tool 是上下文的一部分——它告诉 AI “你可以做什么”以及调用结果世界反馈了什么。3.2 Memory 的本质当我们说给 AI 加上记忆时本质上是在做什么把持久化的信息注入到 system 或 messages 里。ChatGPT 的 Memory 功能当你说记住我是素食者后下次对话时system prompt 里会多出一行用户偏好素食者就这么简单。AI 并没有真的记住——它只是每次请求时都能看到这条信息。Memory 的各种实现方式•显式存储用户主动设置系统持久化•自动提取从对话中自动识别关键信息并存储•RAG 检索根据当前问题动态检索相关的历史信息无论哪种方式最终都是往那些字段里填东西。3.3 RAG 的本质RAGRetrieval-Augmented Generation是什么根据用户问题动态检索相关文档注入到 messages 里。用户问题公司的报销流程是什么[RAG 检索] → 找到《员工手册第5章报销制度》实际发给 LLM 的 messages- system: 你是公司的 HR 助手...- user: 公司的报销流程是什么\n\n参考资料\n《员工手册第5章》\n报销流程如下1. 填写申请表...AI 不是学会了公司制度而是每次提问时都能看到相关资料。RAG 的核心挑战•检索质量能否找到真正相关的内容•信息量控制塞太多会超出 token 限制塞太少会信息不足•格式组织怎么排列才能让 AI 更好地理解这些都是上下文工程的问题。3.4 Agent 框架的本质当我们说AI Agent时通常指的是一个能够• 自主规划任务• 调用多种工具• 根据反馈调整行动• 完成复杂目标的系统。但从协议结构来看Agent 的每一步都是构建上下文整合当前任务、历史行动、环境状态请求 LLM把上下文发给模型获取下一步行动执行行动调用工具、与环境交互更新上下文把执行结果加入历史循环回到第 1 步Agent 框架做的事情就是自动化管理这个上下文的构建和更新过程。不同的 Agent 框架LangChain、AutoGPT、CrewAI……本质上是不同的上下文管理策略。3.5 一张统一的图四、上下文工程的核心问题理解了本质之后我们可以更清晰地定义上下文工程要解决的问题。4.1 放什么内容选择不是所有信息都值得放进上下文。需要考虑相关性这个信息对当前任务有帮助吗把公司所有制度都塞进去不如只放和当前问题相关的那几条。时效性这个信息还有效吗用户三年前的偏好可能已经过时了。可靠性这个信息准确吗错误的上下文比没有上下文更糟糕——它会导致 AI 自信地给出错误答案。4.2 怎么放结构设计同样的信息不同的组织方式效果差异巨大。层次结构## 用户背景- 职业后端工程师- 经验5年- 主要技术栈Python, Go## 当前项目- 名称订单系统重构- 阶段设计评审## 本次任务- 目标评审数据库 schema 设计比起一大段散乱的描述结构化的信息更容易被 AI 理解和使用。优先级重要的信息放前面。LLM 对上下文开头和结尾的内容更敏感这被称为位置偏差。关键信息不要埋在中间。格式选择合适的表达方式。有时候一个表格比十句话更清晰有时候代码示例比文字描述更准确。4.3 放多少容量管理LLM 有 token 限制Context Window。GPT-4 Turbo 是 128KClaude 3 是 200K但这不意味着你应该把它塞满。实际考虑• Token 越多成本越高• 信息过载可能导致迷失在中间——AI 忽略中间的内容• 响应速度随 token 增加而变慢策略• 保持精简只放必要的信息• 动态加载根据需要才检索和注入• 压缩摘要用摘要代替原文• 分层管理核心信息常驻详细信息按需加载4.4 什么时候更新动态策略上下文不是一成不变的。需要考虑何时添加• 用户提供了新信息• 检测到新的偏好模式• 任务执行产生了有价值的经验何时更新• 旧信息被证明过时或错误• 用户明确要求修改• 发现了更好的表达方式何时删除• 信息不再相关• 信息被证明有害导致错误输出• 容量需要腾出空间五、来自 Manus 的实战经验Manus 是一个 AI Agent 平台他们在构建过程中积累了大量上下文工程的实践经验。他们把这个不断试错、调整、重构的过程戏称为随机研究生下降Stochastic Graduate Descent——因为这确实是一门实验科学他们已经重构了四次 Agent 框架。以下是他们分享的几条关键经验5.1 KV-Cache 命中率是核心指标在生产环境中KV-Cache 命中率直接影响延迟和成本。以 Claude Sonnet 为例• 缓存的输入 token0.30 USD / 百万 token• 未缓存的输入 token3 USD / 百万 token•相差 10 倍在 Manus 中平均输入输出 token 比例约为 100:1。如果缓存命中率低成本会急剧上升。实践建议保持 prompt 前缀稳定由于 LLM 的自回归特性即使只有一个 token 的差异也会导致后续缓存失效。一个常见错误是在 system prompt 开头放精确到秒的时间戳。Append-Only 上下文不要修改之前的 action 或 observation只追加新内容。确保序列化是确定性的——连 JSON 的 key 顺序都要保持一致。5.2 用 Masking 而非增删 Tools动态增删 tools 会破坏 KV-Cache而且可能让模型困惑。Manus 的做法是保持 tools 列表稳定通过状态机 logit masking在解码阶段约束工具选择。具体来说• 工具命名使用一致的前缀如browser_表示网页相关shell_表示命令行相关• 通过 logit masking 高效地强制执行工具组约束• 不需要有状态的处理器这样既保持了缓存完整性又能根据上下文动态控制 Agent 行为。5.3 文件系统作为外部记忆Context Window 即使有 128K tokens对于复杂任务往往也不够用。Agent 天然需要访问所有历史状态而你无法预测哪些 observation 在后续步骤会变得关键。Manus 的解法把文件系统当作无限大小的外部记忆。Agent 学会读写 sandbox 中的文件。需要时读取不需要时只保留路径。这让 context 保持轻量但 Agent 却像有无限记忆一样。压缩策略的设计原则可恢复。• 网页内容可以丢弃只要 URL 保留• 文档内容可以省略只要文件路径可访问5.4 通过 todo.md 进行目标重述复杂任务可能需要约 50 次工具调用。随着执行推进Agent 很容易忘记最初的目标——这就是所谓的lost-in-the-middle问题。Manus 的解法让 Agent 不断重写 todo.md。# Current Task- [x] 分析用户需求- [x] 检索相关文档- [ ] 生成初稿 ← 当前- [ ] 用户确认- [ ] 最终输出通过持续更新 todo 列表全局目标被推到模型最近的注意力范围内避免在长轨迹中迷失。这是对 Transformer 注意力模式的深刻理解与其期望模型记住很久以前的内容不如主动把重要信息拉到最近。5.5 保留错误信息这是一条反直觉的经验不要从上下文中删除失败的操作。当模型看到它执行了某个 action 并且失败了它会隐式地更新内部信念学会不再重复这个错误。[Action] shell_run: rm -rf /important_data[Result] Error: Permission denied[Action] shell_run: sudo rm -rf /important_data # 模型不会再这样做保留错误轨迹是让 Agent 真正agentic的关键元素之一——从错误中学习的能力。5.6 多智能体上下文隔离Manus 采用多智能体架构子智能体的主要目标是隔离上下文。架构包括•Planner分配任务•Knowledge Manager审查对话决定什么应该保存到文件系统•Executor执行 Planner 分配的任务每个子智能体有自己的上下文窗口。当需要执行子任务时相关上下文被传递给子智能体而不是污染主上下文。这样做的好处• 主上下文保持精简• 子任务的中间状态不会干扰全局规划• 不同类型的任务可以有不同的上下文策略5.7 避免 Few-Shot 陷阱Few-shot prompting 对 LLM 很有效但在 Agent 场景下可能适得其反。当上下文中充满太多相似的 action-observation 对时Agent 会陷入模仿模式——机械地重复之前的行为模式而不是根据当前状态做出最优决策。Manus 的解法引入可控的多样性。• 在序列化模板中引入小变化• 措辞和格式上保持适度差异• 避免上下文过于整齐划一这样 Agent 会把上下文当作参考而不是要遵循的脚本。六、实践指南6.1 用户侧如何做个人上下文工程如果你想让 AI 更懂你可以从这些方面入手利用产品提供的机制产品入口建议内容ChatGPTSettings → Personalization职业背景、回答偏好、常用场景Claude项目根目录创建 CLAUDE.md项目上下文、代码规范、技术栈Cursor.cursorrules 文件编码风格、架构约定、禁止事项构建个人提示词模板为常用场景准备模板每次使用时填充具体内容## 背景我是 [职业]正在做 [项目]。## 任务我需要 [具体目标]。## 约束- [约束1]- [约束2]## 输出格式请用 [格式] 呈现结果。主动提供上下文不要假设 AI 知道你没说的东西。如果你问这段代码有什么问题记得把代码贴上如果你说按照之前讨论的方案记得说明是哪个方案。6.2 工程师侧系统设计原则System Prompt 设计1. 身份定义你是谁擅长什么2. 行为准则应该做什么不应该做什么3. 领域知识必要的背景信息保持精简4. 输出规范格式、风格、长度要求5. 边界情况遇到特殊情况如何处理注意 KV-Cache 友好性• Prompt 前缀保持稳定• 动态内容放在后面• 避免在开头放时间戳等易变信息动态信息注入上下文压缩策略当对话变长时需要压缩历史方案 A滑动窗口 - 只保留最近 N 轮方案 B摘要压缩 - 用 LLM 生成历史摘要方案 C关键信息提取 - 只保留关键决策和事实方案 D文件外化 - 详细内容写入文件只保留路径引用6.3 一个完整的例子假设你在构建一个代码助手每一个优秀的代码助手Cursor、Copilot、Claude Code背后都是这样一套精心设计的上下文架构。七、哲学层面的思考7.1 上下文即存在对于 LLM 来说它看到的就是它的世界。没有出现在上下文里的信息对 AI 来说就是不存在的。即使它在训练时学过如果上下文不触发那些知识就是沉默的。这有点像人类的意识。神经科学告诉我们我们的大脑储存了海量信息但每一刻我们只能意识到其中很小一部分——那些被激活的部分。上下文之于 AI就像工作记忆之于人类它定义了当下的认知边界。7.2 人类也在做上下文工程如果我们诚实地审视自己会发现人类一直在做上下文工程。会议之前我们准备材料、整理思路、预判问题——本质上是在为自己和他人构建上下文。写作之时我们考虑读者是谁、他们知道什么、不知道什么——本质上是在为读者设计上下文。教学之中我们循序渐进、由浅入深、用类比和例子——本质上是在帮助学生建立理解所需的上下文。AI 让这个过程变得更加显式和可操作。我们过去凭直觉做的事情现在需要明确地设计和优化。7.3 从教 AI 说话到给 AI 配眼镜Prompt Engineering 的隐喻是对话如何和 AI 说话让它理解你的意图。Context Engineering 的隐喻是配眼镜AI 的视力参数能力是固定的但你可以通过调整它看到的世界上下文让它看得更清楚。一个近视的人换一副更合适的眼镜立刻能看清更多细节。不是他的眼睛变好了而是他获得了更好的视觉上下文。同样一个 LLM 配上精心设计的上下文能解决更复杂的问题。不是模型变强了而是它获得了更好的认知上下文。好的上下文工程能让小模型媲美大模型。7.4 上下文工程是 AI 时代的读写能力在印刷时代读写能力是基本素养。不会读写你就无法有效地获取和传播信息。在 AI 时代上下文工程可能成为类似的基本素养。不懂如何为 AI 构建有效的上下文你就无法充分利用这个时代最强大的工具。这不是说每个人都要成为提示词工程师。而是说理解 AI 的工作原理、知道如何有效地与 AI 协作将成为越来越重要的能力。就像今天你不需要成为作家才能有效地写邮件未来你不需要成为 AI 工程师才能有效地使用 AI——但你需要理解上下文工程的基本原理。八、结语让我们回到最初的问题AI 能看到什么从内容层面来说主要就是 messages 和 tools。这些字段构成了 LLM 的主要输入。所有让 AI 变聪明的技术——Tool、Memory、RAG、Agent——本质上都是在回答同一个问题如何更好地填充这些字段。理解这一点你就理解了 AI 应用的底层逻辑。正如 Manus 团队所说“模型可能在变强、变快、变便宜但再多的原始能力也无法替代对记忆、环境和反馈的需求。你如何塑造上下文最终定义了你的 Agent 如何行为它跑多快、恢复得多好、能扩展多远。”对于策略工程师来说上下文工程是设计 AI 产品的核心。你需要决定放什么内容、用什么结构、保持什么规模、何时更新、如何优化缓存。这些决策直接影响产品的效果和成本。对于普通用户来说上下文工程是深度利用 AI 的钥匙。当你开始主动思考我应该告诉 AI 什么而不只是我想问 AI 什么你就迈入了上下文工程的大门。LLM 的参数是静态的但上下文是动态的。参数决定了能力的上限上下文决定了能力的发挥。你给 AI 看什么决定了 AI 能为你做什么。这就是上下文工程的本质也是 AI 时代的必修课。AI时代未来的就业机会在哪里答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具到自然语言处理、计算机视觉、多模态等核心领域技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。掌握大模型技能就是把握高薪未来。那么普通人如何抓住大模型风口AI技术的普及对个人能力提出了新的要求在AI时代持续学习和适应新技术变得尤为重要。无论是企业还是个人都需要不断更新知识体系提升与AI协作的能力以适应不断变化的工作环境。因此这里给大家整理了一份《2026最新大模型全套学习资源》包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题、AI产品经理入门到精通等带你从零基础入门到精通快速掌握大模型技术由于篇幅有限有需要的小伙伴可以扫码获取1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。5. 大模型行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。为什么大家都在学AI大模型随着AI技术的发展企业对人才的需求从“单一技术”转向 “AI行业”双背景。企业对人才的需求从“单一技术”转向 “AI行业”双背景。金融AI、制造AI、医疗AI等跨界岗位薪资涨幅达30%-50%。同时很多人面临优化裁员近期科技巨头英特尔裁员2万人传统岗位不断缩减因此转行AI势在必行这些资料有用吗这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。大模型全套学习资料已整理打包有需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询