2026/4/15 10:26:12
网站建设
项目流程
网页网站建设的ppt模板下载,品牌推广部,wordpress 二维码插件下载,网站模板 实验室文章介绍了AI Agent的定义、决策流程和四个核心模块#xff0c;详细解析了9种设计模式#xff1a;ReAct、Plan and Solve等#xff0c;每种模式各有适用场景。文章还提及智泊AI提供AI大模型课程#xff0c;帮助不同背景人群成为AI人才#xff0c;结合理论学习和实战项目详细解析了9种设计模式ReAct、Plan and Solve等每种模式各有适用场景。文章还提及智泊AI提供AI大模型课程帮助不同背景人群成为AI人才结合理论学习和实战项目培养核心竞争力。Al Agent 的定义:Agent是让LLM根据动态变化的环境信息选择执行具体的行动或者对结果做出判断并影响环境通过多轮迭代重复执行上述步骤直到完成目标。精简的决策流程P(感知)–P(规划)–A(行动)为了Agent像人一样干活Agent需要具备四个模块推理、记忆、工具、行动Agent的9种设计模式一、ReAct模式这是 LLM Agent 第一文发表于 2022年10 月现在看起来特别简单但当时ChatGPT还没有面世能够提出让LLM 学会使用工具具有一定的开创性。ReAct模式的提出是对AI工具使用能力的一次重大突破。它通过将行动(Action)与观察(Observation)相结合使AI能够进行更为连贯的任务执行。与传统的分离式任务执行相比ReAct模式让AI在执行每一步行动后都能进行即时的反思和调整显著提高了任务完成的准确性和效率。ReAct 原理很简单没有 ReAct 之前Reasoning和 Act 是分割开来的。举个例子你让孩子帮忙去厨房里拿一瓶胡椒粉告诉 ta 一步步来(COT提示词策略)1.先看看台面上有没有2.再拉开灶台底下抽屉里看看3.再打开油烟机左边吊柜里看看没有 React 的情况就是:不管在第几步找到胡椒粉ta都会把这几个地方都看看(Action)有 React 的情况是Action1: 先看看台面上有没有Observation1: 台面上没有胡椒粉执行下一步Action2: 再拉开灶台底下抽屉里看看Observation2: 抽屉里有胡椒粉Action3: 把胡椒粉拿出来是的就是这么简单在论文的开头作者也提到人类智能的一项能力就是 Actions with verbal reasoning即每次执行行动后都有一个“碎碎念(Observation”: 我现在做了啥是不是已经达到了目的。这相当于让 Agent 能够维持短期记忆。具体过程:(1) 构建提示词模板。初始阶段需将预设的ReAct提示词框架结构为Question-Thought-Action-Observation与用户输入整合。若需领域适配应替换fewshot示例中的特定内容例如当Action包含Send message to someone时该Action需映射至相应外部工具的API接口。(2) 触发大模型推理。将fewshot提示词输入大模型后系统会生成Thought与Action序列。为避免过早输出Observation结果代码中设置了Stop.Observation终止条件确保模型仅返回Thought和Action部分。(3) 执行工具调用。当Action非Finish状态时通过大模型的function calling能力将自然语言指令转换为API可识别的格式。此功能本质上是针对语言格式转换的模型微调但需注意并非所有大模型均支持该特性。(4) 迭代处理结果。API返回数据经自然语言转换生成Observation后结合当前Thought和Action重新输入大模型循环执行步骤2-3直至Action标记为Finish。(5) 最终结果呈现。将末次Observation转换为自然语言输出。由此我们可以看到 Agent 要落地一个场景需要定制两项内容Prompt 模板中 few shot 中的内容function calling 中的外部工具定义而 Prompt 模板中 fewshot 本质上就是人类思维模式的结构化体现通过查阅各个设计模式的 prompt 模板是很好的学习 Agent 设计模式的方法二、Plan and Solve 模式顾名思义这种设计模式是先有计划再来执行。如果说 ReAct更适合 完成“厨房拿胡椒粉”的任务。那么 Plan solve 更适合完成“西红柿炒鸡蛋”的任务: 你需要计划并且过程中计划可能会变化(比如你打开冰箱发现没有西红柿时你将购买西红柿作为新的步骤加入计划)Plan and Solve模式适用于需要详细规划和可能需要调整的任务。这种模式通过先制定计划再执行的方式允许AI在面对任务变化时灵活调整策略类似于烹饪过程中根据食材的实际情况调整菜谱。架构上它的组成是这样的规划器驱动LLM构建多阶段任务执行方案的核心模块。其实现包含Planner初始计划生成器与Replanner动态调整器Planner 负责第一次生成计划Replanner会在单步任务完成后综合当前目标、初始方案及已执行步骤等上下文信息进行二次规划Replan。因此其提示词模板需整合Zeroshot基础指令与上述动态参数Replanner 提示词中除了 Zeroshot还会包含目标原有计划和已完成步骤的情况。执行器通过解析用户请求与规划步骤序列协调调用特定工具链实现任务落地。三、Reason without observation(REWOO)REWOO模式摒弃了传统的观察步骤而是将观察结果隐式地融入到下一步的执行中。这种方法在审批流程等场景中尤为有效因为它允许AI在每一步中自动考虑前一步的输出从而实现更流畅的任务执行。REWOO这种方法是相对 ReAct中的Observation 来说的ReAct 提示词结构是Thought→Action→Observation而 REWOO把 Observation 去掉了。但实际上REWOO 只是将 Observation 隐式地嵌入到下一步的执行单元中了即由下一步骤的执行器自动去 observe 上一步执行器的输出。举个例子常见的审批流都是环环相扣的比如我们的目标是完成c我们的步骤是:我们需要从部门 A 中拿到 a 文件然后拿着 a文件去部门 B 办理 b 文件然后拿着b文件去部门C办理c文件-任务完成。这其中第 23 步骤中 BC 部门对 ab 文件的审查本身就是一类Observation。又比如下面提示词模板中给出 one shot 内容中定义出每一步的 plan 都会依赖上一步的输入。架构上它由三个组件组成Planner: 负责生成一个相互依赖的“链式计划”定义每一步所依赖的上一步的输出。Worker: 循环遍历每个任务并将任务输出分配给相应的变量。当调用后续调用时它还会用变量的结果替换变量。Solver: 求解器将所有这些输出整合为最终答案。四、LLMCompilerLLMCompiler模式的核心在于通过并行Function calling提高AI的工作效率。这种模式通过优化任务编排使得AI能够同时处理多个任务从而大幅度提升处理速度。Compiler-编译一词在计算机科学的意义就是如何进行任务编排使得计算更有效率。原论文题目是《An LLM Compiler for Parallel Function Calling》很直白就是通过并行Function calling来提高效率比如用户提问张译和吴京差几岁planner搜索张译年龄和搜索吴京年龄同时进行最后合并即可。架构上它由三个组件组成Planner: 流式处理任务的有向无环图(DAG)Task Fetching Unit: 一旦任务可执行便立即调度并执行它们。Joiner: 响应用户或触发第二个计划五、Basic ReflectionBasic Reflection模式通过模拟师生互动的方式让AI在生成答案后能够得到反馈并据此进行修正。这种模式提高了AI生成内容的质量和准确性。Basic Reflection 可以类比于学生(Generator)写作业老师(Reflector)来批改建议学生根据批改建议来修改如此反复。提示词就是复刻师生之间的交互。六、ReflexionReflexion模式在Basic Reflection的基础上整合了强化学习机制通过外部数据对答案质量进行量化评估从而推动更有效的自我修正。作为Basic Reflection的进阶版本其论文《Reflexion: Language Agents with Verbal Reinforcement Learning》的核心思想是将强化学习应用于语言代理。与基础版本相比Reflexion通过外部数据验证回答的准确性并强制识别响应中的冗余Superfluous与遗漏missing显著提升了反思的实践价值。在提示词设计上该模式要求大模型在生成回答前执行系统性反思包括批判性分析内容的完整性与重复性随后输出初步回答再基于反馈进行针对性修订Revise。七、Language Agent Tree Search (LATS)LATS模式是多种Agent设计模式的融合它结合了树搜索、ReAct、PlanSolve以及反思机制通过多轮迭代来寻找最优解。LATS 相应论文标题是《Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models》很直白是 Tree searchReActPlansolve 的融合体。在原作的图中我们也看到 LATS 中通过树搜索的方式进行 Reward(强化学习的思路)同时还会融入 Reflection从而拿到最佳结果。所以:LATSTree search ReActPlansolve Reflection 强化学习八、Self-DiscoverSelf-Discover模式鼓励AI在更小的粒度上对任务本身进行反思从而实现更深层次的任务理解和执行。Self-discover 的核心是让大模型在更小粒度上 task 本身进行反思比如前文中的 PlanSlove 是反思 task 是不是需要补充而 Self-discover 是对 task 本身进行反思。架构上它由三个组件组成Selector: 从众多的反省方式中选择合适的反省方式Adaptor: 使用选择的反省方式进行反省lmplementor: 反省后进行重新 Reasoning九、StormStorm模式专注于从零开始生成内容如维基百科文章。它通过先构建大纲再丰富内容的方式提供了一种系统化的内容生成方法。Storm 相应论文标题是《Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models》很直白: 可以从零生成一篇像维基百科的文章。主要思路是先让 agent 利用外部工具搜索生成大纲然后再生成大纲里的每部分内容。在Agent设计模式的选择上并没有一成不变的最佳方案。每种模式都有其独特的使用场景和优势。产品经理需要根据用户的具体需求和场景特点选择最合适的设计模式。随着AI技术的不断发展新的设计模式将不断涌现为AI应用带来更多可能性。那么如何系统的去学习大模型LLM作为一名从业五年的资深大模型算法工程师我经常会收到一些评论和私信我是小白学习大模型该从哪里入手呢我自学没有方向怎么办这个地方我不会啊。如果你也有类似的经历一定要继续看下去这些问题啊也不是三言两语啊就能讲明白的。所以我综合了大模型的所有知识点给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢我就曾放空大脑以一个大模型小白的角度去重新解析它采用基础知识和实战项目相结合的教学方式历时3个月终于完成了这样的课程让你真正体会到什么是每一秒都在疯狂输出知识点。由于篇幅有限⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》扫码获取~为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型学习指南路线汇总我们这套大模型资料呢会从基础篇、进阶篇和项目实战篇等三大方面来讲解。①.基础篇基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念用最易懂的方式带你入门大模型。②.进阶篇接下来是进阶篇你将掌握RAG、Agent、Langchain、大模型微调和私有化部署学习如何构建外挂知识库并和自己的企业相结合学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。③.实战篇实战篇会手把手带着大家练习企业级的落地项目已脱敏比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等从而帮助大家更好的应对大模型时代的挑战。④.福利篇最后呢会给大家一个小福利课程视频中的所有素材有搭建AI开发环境资料包还有学习计划表几十上百G素材、电子书和课件等等只要你能想到的素材我这里几乎都有。我已经全部上传到CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我这套大模型系统教程将会是全网最齐全 最易懂的小白专用课