唯品会网站建设北京seo顾问服务公司
2026/3/26 1:54:29 网站建设 项目流程
唯品会网站建设,北京seo顾问服务公司,中国十大咨询公司,企业集团网站源码几年前#xff0c;当 Prompt Engineering 概念被提出来的时候#xff0c;有个流行的观点#xff1a;Prompt Engineering 不会存在很长时间#xff0c;会随着 LLM 能力强大逐渐弱化。类比于搜索引擎刚出来的时候#xff0c;有很多复杂的搜索技巧#xff0c;比如使用星号作…几年前当 Prompt Engineering 概念被提出来的时候有个流行的观点Prompt Engineering 不会存在很长时间会随着 LLM 能力强大逐渐弱化。类比于搜索引擎刚出来的时候有很多复杂的搜索技巧比如使用星号作为通配符其他特殊符号还包括加号、波浪号甚至一些关键字 link、define 等。后来随着技术升级用户无需了解这些技巧搜索引擎也能找到最相关内容。但 Prompt Engineering 的发展目前看并没有这种被“弱化”的趋势。反而重要性越来越强非常多论文围绕如何构建 Prompt 展开研究。最近 Prompt Engineering 的 plus 版本 —— Context Engineering 在业内被广泛讨论。前几天中科院、北大清华等高校联合发布了一篇关于 Context Engineering 综述A Survey of Context Engineering for Large Language Models。该综述调研了 1400 多篇论文对 Context Engineering 进行了系统性介绍。什么是 Context Engineering 为什么 Context Engineering 越来越被业界重视为什么说 Context Engineering 是 LLM OS 时代的软件工程本文围绕这几个问题展开讨论。一、什么是 Context Engineering Context Engineering 并没有一个权威的定义。在 A Survey of Context Engineering for Large Language Models论文中也没有明确的定义。引用 Andrej Karpathy一篇推文描述When in every industrial-strength LLM app, context engineering is the delicate art and science of filling the context window with just the right information for the next step.在简化理解“filling the context window with just the right information”也就是在调用 LLM 前构建 context window 的过程。Context Engineering 与 Prompt Engineering 相比有何区别Context Engineering 包括了 Prompt Engineering Prompt Engineering 是 Context Engineering 的一部分。之前的提示词工程很多关注点在“问得巧”而 Context Engineering 也强调要在有限的上下文窗口内 “装得全”“装得对”。Context Engineering 除了 Prompt Engineering 还包括什么可以使用一张图说明上面这张图能清晰表明概念区别但并不十分严谨。比如 RAG Retrieval-Augmented Generation更像是一类“技术实现”。尤其 RAG 后面的 G一般理解为 LLM 的生成并不完全属于 Context Engineering 的范围。而图中的 Memory 与 State/History 更偏重于 Context Engineering 中 Context 的构成维度有些差异。在 A Survey of Context Engineering for Large Language Models论文中有区分 Context Engineering 的“基础组建”与“系统实现”RAG 被归为后者。而把 RAG 中 R“Retrieval” 的数据与 State、History、Memory 等归为“基础组建”从概念划分更为合理。上图中的内容也并不完备。在第三部分 Context Engineering 分类中会在对 Context Engineering 都有哪些类型展开讨论此处不在展开。Context Engineering 的概念貌似只比 Prompt Engineering 扩大了一点为何业内越来越关注 Context Engineering 下一章节尝试回答此问题。二、LLM OS 视角的 Context Engineering“Context engineering” … is effectively the #1 job of engineers building AI agents.–cognition.ai A Theory of Building Long-running Agents如果把 LLM 看作一个操作系统对比 LLM 与操作系统架构可以有以下对应关系。Kernel (内核) 对应 LLM 的核心模型也就是Transformer 架构及其参数权重。System Calls (系统调用) 对应 LLM 的 API/接口 与 工具调用能力LLM 的预测/推理接口和函数调用Function Calling机制这里的 Function Calling 目前也有了相对标准的协议 MCP。与一般的直接调用 API 不同这里工具调用能力类似于一种抽象的 SPI 能力。Shell (命令行解释器) 对应 LLM 交互前端与用户界面 (UI/CLI)典型的为 ChatGPT此外一些库提供同样的命令行工具可以直接与模型通过 text 交互比如Llama.cpp 命令行工具。Library Routines (库函数) 对应 LLM 中间件比如Prompt 模板引擎、向量数据库工具RAG、微调框架。模板引擎 LangChain、LlamaIndex 、微调工具Hugging Face Transformers, PEFT/LoRA、等。Applications (应用程序) 对应基于 LLM 构建的 Agent 应用如Cursor、GitHub Copilot。LLM 之上可以有不同的 LLM app不同的 LLM app 也可以替换依赖的 LLM。比如 Cursor 可以使用 GPT o3 也可以使用 DeepSeek。就像当前的 VS code 可以运行在 Mac 上也可以运行在 Windows 上。除了上文提到的对应关系外仍可发现其他对应比如 LLM 应用中经常使用的 embedding 技术可以对应于操作系统的 File system 的索引技术。如果把 LLM 看为操作系统 Context Engineering 相当于什么 Context Engineering 是 LLM 操作系统的“用户程序开发工程”它不改动内核但通过精心设计输入、调用资源和构造上下文实现模型行为的“编程”。Andrej Karpathy 在分享中把软件工程划分为三个阶段第一个阶段为传统的软件工程第二个阶段为训练模型权重的为主阶段第三个阶段为通过编程对神经网络进行控制的阶段programmable neural net。而 Context Engineering 可以理解为 Software 3.0 阶段的软件工程。在 LLM OS 架构图中操作系统中 RAM 为 context windowcontext window 也是 Context Engineering 主要的编程对象。Context Engineering 通过多轮上下文组织、思维链、RAG 查询控制等手段构造上下文决定“模型看到什么”RAM/Context window从而影响其行为。Context Engineering 通过精心设计 prompt、引入外部知识RAG、函数、工具调用、控制 token 预算与上下文长度等就像是写 高质量 Shell 脚本 或 用户态控制程序在不改动模型内核的前提下最大化利用其能力。Context Engineering 是 LLM 操作系统的“用户程序开发工程”它不改动内核但通过精心设计输入、调用资源和构造上下文实现模型行为的“编程”。传统的软件开发Software 1.0使用操作系统提供的系统调用层层封装实现用户需求。并且需要考虑成本、性能、复用性、扩展性等等。Software 3.0基于 LLM 这个操作系统的软件开发需要使用 LLM 提供的系统调用只有一个主要推理接口实现用户需求并且需要考虑成本、性能、复用性、扩展性。对于开发者而言这个系统调用甚至主要参数也只有一个一个超长的 String。那程序员的主要工作变成了如何构造这个 String 来满足用户需求并且要考虑成本、性能、复用性、扩展性。招聘软件开发人员时往往面试的不限于软件开发的语言有相当一部分的内容为操作系统原理。记得很早之前自己的一次面试自己回答的不好的一个问题 “Linux 的内核中都有什么 ”。软件开发中熟悉操作系统的原理开发的软件时才能了解软件是运行在一个什么样的世界有哪些规则限制。同样在 Software 3.0对于3.0的软件开发工程师了解 LLM OS 的原理同样重要。一个典型的例子前一阵 manus 分享文章Context Engineering for AI Agents: Lessons from Building Manus中第一点为“Design Around the KV-Cache”。大概意思是尽可能保持 context window 的前面内容稳定前缀内容一致能够利用的 KV cache 越多。原理上有些类似于 hbase 的 rowkey 设计或者关系数据库的最左前缀匹配规则。只这一点设计能够节省 10 倍的资源开销“And we’re not talking about small savings: with Claude Sonnet, for instance, cached input tokens cost 0.30 USD/MTok, while uncached ones cost 3 USD/MTok—a 10x difference.”本质上看LLM 与传统的小模型一样是一个无状态的函数。要想得到这个函数最好的输出需要给到最好的输入。影响 LLM 这个函数结果的参数主要参数只有一个即是 Context Engineering 要构建的内容。但这内容构建并非易事如果构建不当会导致各种问题。什么是“最好”的输入要了解“好”是什么可以通过芒格提倡的逆向思维方式看下“不好”是什么不好的 context 会导致的问题。三、Context 处理不当导致的问题How Long Contexts Fail文章中指出了四点对 context 处理不当会导致的问题。Context Poisoning: When a hallucination makes it into the contextContext Distraction: When the context overwhelms the trainingContext Confusion: When superfluous context influences the responseContext Clash: When parts of the context disagreeContext Poisoning上下文中毒这里的 Poisoning与 LLM 在训练时候语料中的 Poisoning 一个意思指那些错误的信息语料。对于 context 而言还有另外一个严重的问题这种 Poisoning 会累积。因为上一轮的 context 信息会传递到下一轮的 contextContext Poisoning 也会有这样的传递。这样每一轮引入的 Context Poisoning 会慢慢积累。如果context 中关键的信息部分被影响或破坏那么会导致 LLM 的推理计算失败。Context Distraction上下文干扰上下文干扰是指当上下文变得过长时模型会过度关注上下文而忽略了其在训练过程中所学到的内容。心理学上也有类似的研究相同的一个问题如果问题描述的冗余复杂加入无关信息即使信息是完备的但会比简单明确的描述正确率差很多。在 LLM 中越是小参数量的模型这种注意力被分散自身能力发挥受限的现象越明显。Context Confusion上下文混淆上下文混淆是指模型利用上下文中多余的内容生成低质量回复的情况。与上下文干扰差异上下文干扰是过于关注上下文中的信息不能发挥 training 阶段学习的能力。而上下文混淆是错误的使用了上下文中的信息使用的是training 阶段学习到的能力。典型的问题是一个 Agent 中提供了过多可以利用的 toolsLLM 最终选择了错误的 tools 使用。Context Confusion上下文冲突上下文冲突是指在上下文中积累的新信息和工具与该上下文中的其他信息相冲突。之前看到一个观点特斯拉采用纯视觉端到端的方案而不是雷达 视觉混合端到端的方案主要原因之一是雷达成本高另外一个原因是越多的信息源越可能导致上下文冲突而解决这种冲突的对大模型的要求非常高很多场景无法满足准确性要求。以上是 Context 处理不当会导致的问题更详细内容可以阅读原文原文中有相关的 paper 链接可对此问题有更深入了解。对于 Context Engineering 的重要性在 A Survey of Context Engineering for Large Language Models论文中3.2 节 Why Context Engineering 中有更多讨论。通过优化 prompt、多种 RAG 的优化、COT 的优化可以提升 LLM 的最终性能。以上讨论了什么是 Context Engineering 与 Context Engineering 的重要性Context Engineering 具体都有什么下一章节对此问题展开讨论。四、Context Engineering 分类与 Context Engineering 的定义一样Context Engineering 的分类目前没有一个统一的共识。A Survey of Context Engineering for Large Language Models论文中的范围非常广泛包括了 Transform 架构内对 Context 的优化。但个人更加倾向于“狭义”的不涉及对Transform 架构变更的定义。如果从工程视角或者前文的 LLM OS 视角 Transform 架构为操作系统的内核Context Engineering 对应于“用户程序开发工程”不应改变内核。从文章开始提到的定义——“filling the context window with just the right information”也未改变内核。以下讨论也是这样“狭义”的 Context Engineering 范围。具体都有包括哪些内容参考 Context Engineering Guide中内容包括但不限于Designing and managing prompt chains (when applicable)Tuning instructions/system promptsManaging dynamic elements of the prompt (e.g., user inputs, date/time, etc.)Searching and preparing relevant knowledge (i.e., RAG)Query augmentationTool definitions and instructions (in the case of agentic systems)Preparing and optimizing few-shot demonstrationsStructuring inputs and outputs (e.g., delimiters, JSON schema)Short-term memory (i.e., managing state/historical context) and long-term memory (e.g., retrieving relevant knowledge from a vector store)And the many other tricks that are useful to optimize the LLM system prompt to achieve the desired tasks.上述内容更侧重于静态的或者说最终的 context window 构成。下面先通 context types 的维度进行分类。4.1. Context 的内容类型参考 Context Engineering for Agents文章的分类可简单划分为三类Instructions、Knowledge、ToolsInstructions 指令包括提示词、记忆、少样本示例、工具描述等。Tools 工具注意这里是来自工具调用的反馈而不是工具的描述工具的描述属于 Instructions 部分。Knowledge 知识包括事实、记忆等。其中需要特别关注的是 Memory 部分也是 Context Engineering 处理中的需要关注的地方。LLM 可以看作一个无状态的函数这里“无状态”也是在说明 LLM 本身并没有记忆。按照 LangGraph Memory分类可以分为 Short-term memory与 Long-term memory其中 Long-term memory又分为 semantic memory、 episodic memory、procedural memory。短期记忆使应用程序能够记住单个线程或会话中的先前交互也就是常说的历史对话。使用 LLM 提供的推理 API最基础的参数之一就是“历史对话”也就是这里的短期记忆。长期记忆使系统能够在不同的对话或会话中保留信息不与特定会话绑定的。例如目前的 ChatGPT 应用可以对记忆进行配置这里的记忆均为长期记忆。https://help.openai.com/en/articles/8590148-memory-faq长期记忆的分类说明如下表格。直接引用 LangGraph Memory中原文表格Semantic memory语义记忆无论是在人类还是人工智能智能体中都涉及对特定事实和概念的保留。在人类中它可以包括在学校学到的信息以及对概念及其关系的理解。对于人工智能智能体而言语义记忆通常用于通过记住过去交互中的事实或概念来实现应用程序的个性化。上述 ChatGPT 截图中 Reference saved memories功能 “These are details you have explicitly asked ChatGPT to remember, like your name, favorite color, or dietary preferences.”即为一种 Semantic memoryFacts。Episodic memory情景记忆在人类和人工智能智能体中都涉及回忆过去的事件或行动。CoALA论文对此阐述事实可以写入语义记忆而经历则可以写入情景记忆。对于人工智能智能体而言情景记忆通常用于帮助智能体记住如何完成一项任务。ChatGPT 的 Reference chat history 即为 Episodic memory对此配置功能描述“ChatGPT can also use information from your past chats to make future conversations more helpful. For example, if you once said you like Thai food, it may take that into account the next time you ask “What should I have for lunch?” ChatGPT doesn’t remember every detail from past chats, so use saved memories for anything you want it to always keep in mind.”Procedural memory程序性记忆无论是在人类还是人工智能智能体中都涉及记住执行任务所使用的规则。在人类中程序性记忆就像是执行任务的内在知识方法论例如通过基本的运动技能和平衡来骑自行车。另一方面情景记忆涉及回忆特定的经历比如你第一次成功地骑上没有辅助轮的自行车或者一次难忘的骑行之旅。对于人工智能智能体来说程序性记忆是模型权重、智能体代码和智能体提示的组合这些共同决定了智能体的功能。在实践中智能体修改其模型权重或重写代码的情况相当少见。然而智能体修改自身提示词的情况更为常见。比如在执行一个具体的任务中LLM 开始会自动生成一个任务的 prompt 中在任务执行结束后用户会对 prompt 的结果进行反馈比如“结果不超过100字”那么在下一次执行这个任务时候可以把这个用户对任务的要求更新到任务的 prompt 中。人类大脑是“推训练一体”的没有单独的“训练”阶段都是在实践中一边实践、一边收到反馈一边修改大脑中的“神经元权重”。目前应用 LLM 还未见到在运行中根据反馈来对 LLM 进行参数调整。以上是对 Context 的内容类型一个大致分类对 Memory 部分进行了主要讨论。Context 由什么构成并非 Context Engineering 的难点如何保存、生成各种类型的长期记忆从这么多 Context 具体获取哪些 Context 给到 LLM 才是 Context Engineering 的难点。下一小节对 Context 的处理与管理的过程进行分类讨论。4.2. Context 的处理与管理的分类对于 Context Engineering 处理与管理过程分类在 A Survey of Context Engineering for Large Language Models中的 Foundational Components 部分分为4.1. Context Retrieval and Generation、4.2. Context Processing、4.3. Context Management 三个部分。这个分类方式后面两类 Processing、Management 有些抽象很难表示类别的特征。本文参考 Context Engineering for Agents文章的分类对 Context 的相关处理过程进行讨论。4.2.1. Write ContextWriting context means saving it outside the context window to help an agent perform a task.Scratchpads 为上一小节提到的短期记忆。State 本质也是短期记忆是当前会话的状态比如执行特定任务的状态。这里的 Long-term memoris 相对复杂很多。上一小节中提到 ChatGPT 的 Reference saved memories、Reference chat history 功能都属于此部分。ChatGPT 的 Reference saved memories 功能Saved memories是你直接告诉 ChatGPT 要记住的详细信息。你可以随时新增记忆例如“在推荐食谱时记得我是素食者。”已保存的记忆和自定义指令类似但不同的是我们的模型会自动更新这些记忆而不需要用户手动管理。如果你在对话中分享了可能对未来有用的信息ChatGPT 可能会在无需你特别要求的情况下将这些信息保存为记忆。和自定义指令一样已保存的记忆是 ChatGPT 用来生成回答的一部分上下文。除非你删除它们否则这些记忆在未来的回答中都会被考虑进去。在比如 langgraph 实现 Semantic memories 能力的一种方式使用 LLM 生成新的 user 的 profile以上为 Writing context 中长期记忆的处理过程的例子。个人理解这里的 Long-term memoris并不只来源于 agent sessions一些用户的基本信息比如 KYC 时用户填入的信息或者通过离线数据刻画的用户画像信息都属于 Long-term memoris。对应的这些过程本质也都属于 Writing context 的部分。Context Engineering for AI Agents: Lessons from Building Manus文中有一条最佳实践关于 Writing context 使用外部文件保存完整的上下文不要丢失信息。Use the File System as Context智能体本质上必须基于所有先前状态预测下一个行动而你无法可靠地预测哪一项观察结果会在十步之后变得至关重要。从逻辑角度来看任何不可逆的压缩都存在风险。这就是为什么我们在Manus中将文件系统视为终极上下文大小不受限制本质上具有持久性并且智能体本身可以直接操作。该模型学会根据需要对文件进行写入和读取——不仅将文件系统用作存储还将其作为结构化的外部化内存。4.2.2. Select ContextSelect Context 是从已知的 Tools、外部知识库短期、长期记忆挑选相关信息的过程。RAG 中的 R — Retrieval是一个典型的 Select 过程。这一环节非常重要获取的 Context 不能太多也不能缺失相关的必要信息。RAG 中的 Retrieval 过程非常多的策略从语料分片按照语句、段落、语义、固定长度、到语料召回embedding、关键字、GraphRAG已有不少研究探索。Context Engineering for AI Agents: Lessons from Building Manus文中有一条最佳实践关于 Select context —— Keep the Wrong Stuff In根据我们的经验改善智能体行为的最有效方法之一看似简单将错误的选择保留在上下文中。当模型看到一个失败的操作以及由此产生的观察结果或堆栈跟踪时它会隐含地更新其内部认知。这会使其先验认知偏离类似的操作从而降低重复同样错误的可能性。4.2.3. Compressing Context智能体交互可能会历经数百个回合并使用消耗大量令牌的工具调用。摘要生成是一种常见解决方法。一些 LLM 服务会提供类似的能力。超过上下文窗口的95% 时Claude Code会运行 “自动压缩”它将总结用户与智能体交互的完整轨迹。这种跨智能体轨迹的压缩可以采用各种策略如递归或分层摘要生成。这种“压缩”最好是应用层自主控制哪些信息重要哪些信息不重要只有最了解业务的应用开发者最清楚。压缩上下文是信息有损的在使用时需要特别关注。Context Engineering for AI Agents: Lessons from Building Manus文中。Use the File System as Context智能体本质上必须基于所有先前状态预测下一个行动而你无法可靠地预测哪一项观察结果会在十步之后变得至关重要。从逻辑角度来看任何不可逆的压缩都存在风险。这就是为什么我们在Manus中将文件系统视为终极上下文大小不受限制本质上具有持久性并且智能体本身可以直接操作。该模型学会根据需要对文件进行写入和读取——不仅将文件系统用作存储还将其作为结构化的外部化内存。Manipulate Attention Through Recitation在Manus中一个典型的任务平均需要大约50次工具调用。这是一个很长的循环而且由于Manus依赖大语言模型LLMs进行决策它很容易偏离主题或忘记早期目标尤其是在长上下文或复杂任务中。通过不断重写待办事项列表Manus 将其目标复述到上下文的末尾。这将全局计划推到模型最近的注意力范围内避免了“中间迷失”问题并减少了目标不一致的情况。实际上它是在使用自然语言将自身的关注点偏向任务目标而无需对架构进行特殊更改。4.2.4. Context Isolation最常见的隔离上下文的场景是将其分配给多个子智能体。OpenAI 的 Swarm库的一个设计动机是“关注点分离”即由一组智能体来处理子任务。每个智能体都有一套特定的工具、指令以及自己的上下文窗口。此外即使非多智能体的场景一个智能体对于 LLM 不同任务时所暴露的状态也应是隔离的。上下文隔离本质上是对 LLM 进行信息隐藏和上下文封装的策略它与软件工程中的信息隐藏原则和最小知识原则非常相似只暴露最少必要的信息以保持系统的模块性、稳定性和可控性。4.2.5. 小结以上为 Context Engineering 处理过程分类但并非全部比如上文提到的 Context Engineering for AI Agents: Lessons from Building Manus文中面向 KVCache 缓存优化的技术也属于 Context Engineering。其他最佳实践根据原文整理如下绝大部分为原文直接翻译Design Around the KV-Cache具有相同前缀的上下文可以利用键值缓存KV-cache降低了首个令牌生成时间TTFT和推理成本。Mask, Don’t Remove1. 在大多数大语言模型中工具定义在序列化后位于上下文的前部附近通常在系统提示之前或之后。因此任何更改都会使所有后续操作和观察的键值缓存失效。2. 当之前的行动和观察结果仍然指向当前上下文中不再定义的工具时模型就会感到困惑。如果没有约束解码这通常会导致违反模式或产生幻觉行动。Don’t Get Few-Shotted第三章中 Context Confusion 类型语言模型是出色的模仿者它们会模仿上下文中的行为模式。如果你的上下文充满了类似的过往行动 - 观察对模型就会倾向于遵循这种模式即使它不再是最优的。解决办法是增加多样性。Manus在行动和观察中引入少量有组织的变化——不同的序列化模板、不同的措辞、顺序或格式上的细微干扰。这种可控的随机性有助于打破模式并调整模型的注意力。以上为 Context Engineering 处理与管理过程的大概分类。分类并不一定全面准确但对于认识 Context Engineering 能够思路更清晰。五、如何面向 LLM Context 开展 Engineering如果上文提到的两个观点成立1Software 将进入 3.0对神经网络进行编程。2 LLM 是 Software 3.0 开发的操作系统。由于软件开发的对象变化从传统的 Linux 操作系统变为 LLM那么新的软件开发一些方法论也会有对应的改变。Software 1.0 的软件工程中开发面对的对象主要有两个一是开发人员二是操作系统。对象为开发人员主要是因为需求一直在演进需要长期进行维护变更、新增需求。另外一个对象为操作系统因为开发出代码是运行在操作系统上需要考虑性能在高并发的时候需要考虑扩展性。LLM 应用的开发开发面对的对象从传统的操作系统变为 LLM。这会导致多个层面的变化。1传统操作系统执行的为高级编程语言编译后的指令开发时候需要遵循高级开发语言的语法规则。而 LLM 操作系统计算时为自然语言映射后的 token。虽然构造 context window 内容的代码还是 Software 1.0 的代码但本质上运行时的性能运行的耗时根本是决定于 context window 内容而与构建 context window 的代码没有直接关系。2底层运行原理不一致导致性能优化的方法论不一致。典型的为上文提到的 manus 优化推理性能的例子需要考虑 LLM 运行时 KVCache 的数据结构、多张显卡推理时 IO 的消耗而不是传统操作系统考虑的磁盘 IO优化、CPU多级缓存等机制。3面向 LLM OS 开发时需要面向 LLM使用 LLM 友好的“数据结构”。非常典型的是目前的 MCP 协议不仅仅是标准化了 LLM 调用工具的协议更大的意义是定义了一种对 LLM 友好LLM 容易理解的协议。如果设计出的 MCP 的接口只是格式符合但 LLM 无法理解就背离了协议的初衷。在 RAG 中如果秉承“面向 LLM”开发那么文档的格式需要为 LLM 容易理解的格式比如为 markdown 格式。一些网站的设计已经开始“面向 LLM”设计比如上文提到的关于 Memory 分类的网页 LangGraph Memory中右上角有有单独的两个文件“Copy as Markdown for LLMs”就是直接copy 出当前网页的 markdown格式更适合 LLM 理解。“llm.txt” 类似于整个网站页面为 LLM 设计的导航里面为markdown格式的各个页面的说明与地址。开发 LLM Agent时不仅需要考虑在生成的 context window 最终运行的 LLM 操作系统中的性能也需要考虑是否需要被其他 LLM Agent 集成。LLM Agent 会辅助用户完成大量的工作而回去访问之前用户直接访问的信息比如购物网站。那么这个时候购物网站就像上面的网站一样既需要对用户友好也能够被其他 LLM Agent 方便集成。“面向 LLM”开发是一种关注点的彻底改变。在开发人员的视角LLM 不仅是执行未来 LLM Agent 的操作系统也是消费 LLM Agent 信息的一类“用户”。如何做好 Context Engineering 目前并没有权威的方法论。目前 LLM OS 的发展阶段类比于操作系统的发展可能还处于计算机刚诞生的 60 年代。随着 LLM 发展Context Engineering 也会不断演化。最后以 12 factor agents中经常提到的一句话结尾I don’t know what’s the best way to hand context to an LLM, but I know you want the flexibility to be able to try EVERYTHING.以上感谢阅读。普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌02适学人群应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。vx扫描下方二维码即可本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询