2026/3/4 9:28:46
网站建设
项目流程
网站如何设置域名,企业简介ppt范文大全免费,上海紫博蓝网站,汉中建设工程招投标文章深入解析AI应用工程架构三大核心#xff1a;Skill封装领域解决能力#xff0c;Agent通过ReAct循环实现复杂任务自动推演#xff0c;Workflow以DAG或状态图编排多Agent实现确定性流程控制。同时探讨结构化输出与自动化评估等工程化挑战#xff0c;为构建高效AI应用提供技…文章深入解析AI应用工程架构三大核心Skill封装领域解决能力Agent通过ReAct循环实现复杂任务自动推演Workflow以DAG或状态图编排多Agent实现确定性流程控制。同时探讨结构化输出与自动化评估等工程化挑战为构建高效AI应用提供技术参考。在上一篇文章中我们梳理了 Transformer、RAG、Function Calling 以及 MCP 的基础原理。如果说第一篇关注的是单点能力如何调用模型、如何连接数据那么这一篇我们将聚焦于工程架构。当前 AI 应用开发如 Cursor、Windsurf、Devin 等的核心挑战在于如何将无状态的 LLM 转化为有状态、可执行复杂任务的系统。这涉及到三个核心概念的工程化落地Skill技能封装、Agent智能体循环与Workflow工作流编排。本文将从代码实现与数据流转的角度深入剖析这三者的实现原理。Skill从 Prompt 到可执行单元在早期的 AI 开发中Prompt 是零散的字符串。但在复杂的工程中我们需要一种标准化的格式来封装“特定领域的解决能力”这就是 Skill。Skill 本质上是一个包含指令、上下文、工具和元数据的配置对象。它是 Agent 在运行时动态挂载的“驱动程序”。Skill 的数据结构一个标准的 Skill 在 Node.js 环境下通常被定义为如下结构interface Skill {// 元数据用于路由分发 metadata: { id: string; name: string; version: string; description: string; // 用于 Semantic Router 匹配 };// 核心指令System Prompt 的片段 instruction: string;// 上下文注入动态或静态的知识 context: { files?: string[]; // 静态文档路径 dynamic?: () Promisestring; // 运行时获取的状态 (e.g. 当前用户ID、系统时间) };// 工具集该技能可用的原子能力 tools: ToolDefinition[]; }// 示例定义一个 SQL 查询技能const sqlExpertSkill: Skill { metadata: { id: sql-expert-v1, name: SQL Generator Executor, description: When users need to query database or analyze data via SQL, }, instruction: You are a PostgreSQL expert. 1. Always explain the query plan before execution. 2. Read-only queries allowed. 3. Use ISO 8601 for dates. , context: { files: [./docs/db_schema.md], // 注入表结构 }, tools: [runQueryTool, listTablesTool] // 挂载 MCP 工具或本地函数};Skill 的加载与执行流程Skill 的核心价值在于按需加载。我们不需要将所有 Prompt 和 Tool 一次性塞入 Context Window而是通过路由动态激活。graph TD A[用户输入 User Input] -- B{Router 意图识别} subgraph Skill Registry C[Coding Skill] D[Data Analysis Skill] E[General Chat Skill] end B --|Match: SQL| D B --|Match: Bug fix| C D -- F[Context Assembler] subgraph Runtime Context G[System Prompt Skill Instruction] H[Global Context Skill Files] I[Registered Tools] end F -- G F -- H D -- I I -- J[LLM Inference]Agent从无状态推理到有状态循环LLM 本身是无状态的Stateless输入什么输出什么。Agent 则是通过**循环Loop和记忆Memory**机制让 LLM 具备了连续执行任务的能力。目前主流的 Agent 架构通常基于ReAct (Reasoning Acting)模式。ReAct 循环Agent 的核心是一个while循环直到 LLM 判定任务结束或达到最大迭代次数。伪代码如下async function runAgentLoop(userQuery, tools) {let messages [ { role: system, content: You are a helpful assistant... }, { role: user, content: userQuery } ];let iterations 0;const MAX_ITERATIONS 10;while (iterations MAX_ITERATIONS) { // 1. 调用 LLM const response await llm.chat({ messages, tools }); const message response.choices[0].message; // 2. 将 LLM 的回复加入历史 messages.push(message); // 3. 判断是否需要停止无工具调用则视为回答完毕 if (!message.tool_calls || message.tool_calls.length 0) { return message.content; } // 4. 执行工具调用 (Action) for (const toolCall of message.tool_calls) { const toolName toolCall.function.name; constargs JSON.parse(toolCall.function.arguments); // 执行具体函数 constresult awaitexecuteTool(toolName, args); // 5. 将工具结果回填给 LLM (Observation) // 注意这一步是为了让 LLM 在下一次循环中看到工具执行的结果从而生成最终回答 messages.push({ role: tool, tool_call_id: toolCall.id, content: JSON.stringify(result) }); } iterations; }}Agent 状态流转图sequenceDiagram participant Client participant AgentCore participant LLM participant ToolEnv as 工具环境(API/DB) Client-AgentCore: 任务指令 loop ReAct Loop AgentCore-LLM: 当前消息历史 (History) LLM--AgentCore: 返回思考 (Thought) 工具调用 (Call) opt 无工具调用 AgentCore--Client: 返回最终结果 Note right of AgentCore: 循环结束 end AgentCore-ToolEnv: 执行工具 (Action) ToolEnv--AgentCore: 返回执行结果 (Observation) AgentCore-AgentCore: 更新消息历史 (Append History) endWorkflow确定性的编排当单一 Agent 无法胜任复杂场景如先写需求文档再写代码最后运行测试时我们需要引入Workflow工作流。Agent 倾向于自主决策Probabilistic而 Workflow 强调确定性的流程控制Deterministic。在实际工程中通常采用DAG有向无环图或State Graph状态图来编排多个 Agent。常见的 Workflow 模式1. Planning Pattern (规划-执行模式)将任务拆解为 Plan然后逐一 Execute。graph TD Start[用户需求] -- Planner[Planner Agent] Planner --|生成 Plan List| Controller subgraph Execution Loop Controller --|取下一个 Task| Worker[Worker Agent] Worker --|执行结果| Reflector[Reflector Agent] Reflector --|结果检查| Check{是否通过?} Check --|是| Controller Check --|否/重试| Worker end Controller --|列表为空| Summarizer[总结输出] Summarizer -- End2. Multi-Agent Handoff (多智能体协作)类似工厂流水线上游 Agent 的输出作为下游 Agent 的输入。graph LR User -- A[Product Manager Agent] A --|PRD文档| B[Developer Agent] B --|源代码| C[Code Reviewer Agent] C --|Review意见| D{通过?} D --|否| B D --|是| E[Deployer Agent]伪代码基于状态图的编排使用类似 LangGraph 的逻辑来定义工作流// 定义状态const State {input: String,code: String,review_comments: String,status: planning | coding | reviewing | finished};// 定义节点Nodeasyncfunction codingNode(state) {const code await codingAgent.generate(state.input);return { ...state, code, status: reviewing };}asyncfunction reviewNode(state) {const comments await reviewAgent.check(state.code);if (comments.hasCriticalIssues) { return { ...state, review_comments: comments, status: coding }; // 回退 }return { ...state, status: finished };}// 定义图Graphconst graph new StateGraph();graph.addNode(coder, codingNode);graph.addNode(reviewer, reviewNode);// 定义边Edgegraph.addEdge(coder, reviewer);graph.addConditionalEdge(reviewer, (state) {return state.status coding ? coder : end;});// 执行await graph.compile().invoke({ input: Implement a login page });工程化挑战结构化输出与评估在企业级落地中仅有架构是不够的必须解决稳定性和可观测性问题。结构化输出 (Structured Output)LLM 默认输出非结构化文本。为了让 Workflow 中的节点能够通信必须强制 LLM 输出严格的 JSON。实现方案Instruction Tuning在 Prompt 中给出 JSON 示例稳定性一般。Function Calling Mode利用 Tool Call 参数必须为 JSON 的特性稳定性高。Grammar Sampling在推理引擎层如 llama.cpp使用 BNF 语法约束 Token 采样稳定性最高。// 利用 Zod 定义输出 Schemaimport { z } fromzod;const AnalysisSchema z.object({ sentiment: z.enum([positive, neutral, negative]), key_points: z.array(z.string()), confidence_score: z.number().min(0).max(1)});// 大部分现代 SDK 支持直接传递 Schemaconst result await llm.generateObject({ model: gpt-4, schema: AnalysisSchema, prompt: 分析这段客户反馈...});自动化评估 (Evals)Agent 系统是一个黑盒必须建立评估流水线。graph LR DS[测试数据集 (Dataset)] -- Agent[Agent System] Agent -- Output[实际输出] DS -- GT[标准答案 (Ground Truth)] Output -- Judge[Judge LLM (GPT-4)] GT -- Judge Judge -- Metric1[准确性] Judge -- Metric2[幻觉检测] Judge -- Metric3[工具使用正确率]结语从 Transformer 的底层原理到 Skill、Agent、Workflow 的上层架构我们已经完整梳理了构建现代 AI 应用的技术栈。Skill解决了“能力复用”与“上下文隔离”的问题。Agent解决了“复杂任务自动推演”的问题。Workflow解决了“多步骤协作”与“过程可控性”的问题。未来的竞争焦点将不再局限于模型本身的参数量而在于谁能构建出更高效的 Agent Runtime 和更丰富的 Skill 生态。希望这两篇文章能为你构建自己的 AI 应用提供扎实的工程参考。AI时代未来的就业机会在哪里答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具到自然语言处理、计算机视觉、多模态等核心领域技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。掌握大模型技能就是把握高薪未来。那么普通人如何抓住大模型风口AI技术的普及对个人能力提出了新的要求在AI时代持续学习和适应新技术变得尤为重要。无论是企业还是个人都需要不断更新知识体系提升与AI协作的能力以适应不断变化的工作环境。因此这里给大家整理了一份《2026最新大模型全套学习资源》包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题、AI产品经理入门到精通等带你从零基础入门到精通快速掌握大模型技术由于篇幅有限有需要的小伙伴可以扫码获取1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。5. 大模型行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。为什么大家都在学AI大模型随着AI技术的发展企业对人才的需求从“单一技术”转向 “AI行业”双背景。企业对人才的需求从“单一技术”转向 “AI行业”双背景。金融AI、制造AI、医疗AI等跨界岗位薪资涨幅达30%-50%。同时很多人面临优化裁员近期科技巨头英特尔裁员2万人传统岗位不断缩减因此转行AI势在必行这些资料有用吗这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。大模型全套学习资料已整理打包有需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】