2025/12/26 17:53:47
网站建设
项目流程
便宜营销型网站建设优化建站,成都商城网站开发,树状菜单网站,做网站的备案资料一直以来#xff0c;实现通用类人智能都是人类不懈追求的目标#xff0c;智能体#xff0c;也是在该背景下提出的。早期的智能体主要是基于强化学习实现的#xff0c;不仅计算成本高#xff0c;需要用大量的数据训练#xff0c;而且难以实现知识迁移。随着大模型的发展实现通用类人智能都是人类不懈追求的目标智能体也是在该背景下提出的。早期的智能体主要是基于强化学习实现的不仅计算成本高需要用大量的数据训练而且难以实现知识迁移。随着大模型的发展其在诸多领域展现出惊人的语义处理能力能够快速生成文本、 回答问题甚至完成一些复杂的知识推理任务。研究人员开始思考如何将大模型与智能体结合从而突破大模型本身不具备与外部世界联系无法感知外部环境以及调用外部工具的问题。同时智能体借助大模型强大的多模态理解与生成优势可以快速处理信息、规划行动。从2023 年的 “百模大战”到2024 年 “算力网元年”截至2025年近一年来各类Agent层出不穷所以也被广泛认为是智能体的元年。AI Agent智能代理逐渐成为落地应用的核心载体。它不仅能理解语言还能自主规划、调用工具、执行任务真正让大模型从“语言模型”升级为“行动助手”。OpenAI应用研究主管莉莲·翁Lilian Weng在一篇博客中提出AI智能体可能会开启一个新时代。她给出了智能体的基础架构智能体大语言模型LLM规划能力记忆工具使用其中LLM扮演着智能体的“大脑”角色为系统提供推理、规划等核心能力。目前学术界和工业界对 Agent 的定义虽有差异但都围绕着“模拟人的能力”这一核心展开。OpenAI 的定义Agent LLM 规划 记忆 工具使用。Agent 大模型LLM 规划Planning 记忆Memory 工具使用Tool Use(1)LLM大模型作为代理的大脑负责理解问题、生成响应(2)规划Planning子目标和分解智能体将大任务分解为更小、更易管理的子目标从而高效地处理复杂任务。反思与改进智能体可以对过去的行动进行自我批评和反思从错误中学习并改进未来的步骤从而提高最终结果的质量。(3)记忆Memory短期记忆将所有上下文学习视为利用模型的短期记忆进行学习。长时记忆这为智能体提供了在长时间内保留和回忆无限信息的能力通常通过利用外部向量存储和快速检索来实现。(4)工具使用Tool Use代理学习调用外部API以获取模型权重中缺失的额外信息通常在预训练后难以更改包括当前信息、代码执行能力、访问专有信息源等。这四个模块共同构成了一个由大语言模型LLM作为核心控制器构建的智能体Agent系统。LLM 的潜力不仅限于生成文笔优美的文章、故事、论文和程序它还可以构建一个强大的通用问题解决者。一、智能体 vs 传统工作流本质区别1、工作流(Workflow)模式工作流是一种传统的自动化范式其核心是对一系列任务或步骤进行预先定义的、结构化的编排。它本质上是一个精确的、静态的流程图规定了在何种条件下、以何种顺序执行哪些操作。2、智能体(Agent)模式基于大型语言模型的智能体是一个具备自主性的、以目标为导向的系统。它不仅仅是执行预设指令而是能够在一定程度上理解环境、进行推理、制定计划并动态地采取行动以达成最终目标。LLM在其中扮演着大脑的角色。这种基于实时信息进行动态推理和决策的能力正是Agent的核心价值所在。二、智能体核心组件AI 的发展链路大致是这样的 从最初只能对话的 Chatbot辅助人类决策的 Copilot再到能自主感知和行动的 AgentAI 在任务中的参与度不断提升。组件一规划任务分解思维链Chain of ThoughtCoTWei等人2022已成为提升模型处理复杂任务性能的标准提示技术。模型被指令“逐步思考”通过更多的测试时计算将困难任务分解为更小、更简单的步骤。思维链将复杂任务转化为多个可管理的子任务同时也为解读模型的思考过程提供了思路。思维树Tree of ThoughtsYao等人2023在思维链的基础上进行了扩展每一步都会探索多种推理可能性。它首先将问题分解为多个思考步骤每个步骤生成多个思路形成树状结构。搜索过程可采用广度优先搜索BFS或深度优先搜索DFS每个状态通过分类器基于提示词或多数投票进行评估。任务分解可通过三种方式实现1通过LLM进行简单提示例如“完成XYZ的步骤1.”“实现XYZ的子目标有哪些”2使用任务特定指令例如写小说时使用“撰写故事大纲”3借助人工输入。自我反思自我反思是自主智能体的关键特性它能通过优化过往行为决策、纠正之前的错误实现迭代改进。在需要反复尝试的现实任务中自我反思发挥着至关重要的作用。ReActYao等人2023通过将动作空间扩展为任务特定的离散动作与语言空间的组合在LLM中整合了推理与行动。前者使LLM能够与环境交互例如调用维基百科搜索API后者则促使LLM以自然语言生成推理轨迹。ReflexionShinn Labash2023是一个为智能体配备动态记忆和自我反思能力以提升推理技能的框架。Reflexion采用标准强化学习RL设置奖励模型提供简单的二元奖励动作空间沿用ReAct的设置——在任务特定动作空间中加入语言以支持复杂推理步骤。每次动作执行后智能体计算启发式函数并根据自我反思结果决定是否重置环境开始新尝试。组件二记忆记忆的类型记忆可定义为获取、存储、保留和后续检索信息的过程。人类大脑的记忆主要分为以下几类感觉记忆这是记忆的最初阶段能够在原始刺激消失后短暂保留感官信息视觉、听觉等的印象。感觉记忆通常仅持续几秒。子类包括图像记忆视觉、声像记忆听觉和触觉记忆触觉。短期记忆STM或工作记忆存储当前意识到的信息用于支持学习、推理等复杂认知任务。短期记忆的容量约为7个项目Miller1956持续时间为20-30秒。长期记忆LTM能够长时间存储信息从几天到几十年不等存储容量几乎无限。长期记忆分为两个子类外显/陈述性记忆关于事实和事件的记忆指可有意识地回忆起的内容包括情景记忆事件和经历和语义记忆事实和概念。内隐/程序性记忆无意识的记忆涉及自动执行的技能和常规如骑自行车或打字。人类记忆分类。我们可以大致建立以下映射关系感觉记忆对应原始输入文本、图像或其他模态的嵌入表示学习短期记忆对应上下文学习受Transformer有限上下文窗口长度的限制具有短期性和有限性长期记忆对应外部向量数据库智能体在查询时可通过快速检索访问。外部记忆可缓解有限注意力跨度的限制。标准做法是将信息的嵌入表示存储到支持快速最大内积搜索MIPS的向量数据库中。为优化检索速度常用选择是近似最近邻ANN算法返回近似前k个最近邻以轻微的精度损失换取大幅的速度提升。组件三工具使用工具使用是人类显著的区别性特征。我们创造、修改和利用外部物体以完成超出自身生理和认知极限的事情。为LLM配备外部工具可显著扩展模型的能力。工具使用相关框架与实践MRKLKarpas等人2022是“模块化推理、知识与语言”的缩写是一种用于自主智能体的神经符号架构。MRKL系统由一组“专家”模块组成通用LLM充当路由器将查询分配给最合适的专家模块。这些模块可以是神经型的如深度学习模型或符号型的如数学计算器、货币转换器、天气API。研究人员进行了一项微调LLM调用计算器的实验以算术题为测试案例。结果显示LLM70亿参数Jurassic1-large模型解决文字数学题比明确表述的数学题更困难因为它难以可靠地提取基础算术的正确参数。这一结果表明当外部符号工具可可靠工作时“知道何时使用工具以及如何使用工具”至关重要而这取决于LLM的能力。TALM工具增强语言模型Parisi等人2022和ToolformerSchick等人2023均通过微调语言模型使其学会使用外部工具API。数据集的扩展基于新增的API调用标注是否能提升模型输出质量。更多细节可参考提示词工程的 “外部API”部分。ChatGPT的插件功能和OpenAI API的函数调用功能是LLM增强工具使用能力的实际应用案例。工具API集合可由其他开发者提供如插件或自定义如函数调用。HuggingGPTShen等人2023是一个以ChatGPT为任务规划器的框架它根据模型描述选择HuggingFace平台上可用的模型并基于执行结果总结响应。HuggingGPT工作原理示意图该系统包含四个阶段1任务规划LLM作为“大脑”将用户请求解析为多个任务。每个任务包含四个属性任务类型、ID、依赖关系和参数。通过少样本示例引导LLM进行任务解析和规划。指令示例 AI助手可将用户输入解析为多个任务[{“task”: 任务名称, “id”: 任务ID, “dep”: 依赖任务ID列表, “args”: {“text”: 文本内容, “image”: 图片URL, “audio”: 音频URL, “video”: 视频URL}}]。“dep”字段表示当前任务所依赖的、生成新资源的前序任务ID。特殊标签“-task_id”指代ID为task_id的依赖任务生成的文本、图片、音频和视频。任务必须从以下选项中选择 {{可用任务列表}} 。任务之间存在逻辑关系请注意顺序。若无法解析用户输入需返回空JSON。以下是参考案例 {{演示示例}} 。聊天历史记录为 {{聊天历史}} 。可从聊天历史中获取用户提及的资源路径用于任务规划。2模型选择LLM将任务分配给专家模型该请求以选择题形式呈现。LLM需从提供的模型列表中选择。由于上下文长度有限需先按任务类型过滤。指令示例 给定用户请求和调用命令AI助手帮助用户从模型列表中选择合适的模型处理请求。仅输出最合适模型的ID格式需严格遵循JSON“id”: “模型ID”, “reason”: “选择的详细理由”。候选模型列表 {{候选模型}} 。请从列表中选择一个模型。3任务执行专家模型执行特定任务并记录结果。指令示例 基于输入和推理结果AI助手需描述过程和结果。前序阶段信息如下用户输入 {{用户输入}} 任务规划 {{任务列表}} 模型选择 {{模型分配}} 任务执行 {{预测结果}} 。需先直接回应用户请求再以第一人称描述任务过程展示分析和模型推理结果。若推理结果包含文件路径需告知用户完整路径。4响应生成LLM接收执行结果向用户提供总结性回复。要将HuggingGPT投入实际应用需解决以下挑战1效率提升——LLM推理轮次和与其他模型的交互会拖慢流程2依赖长上下文窗口——需传递复杂任务内容3稳定性提升——LLM输出和外部模型服务的稳定性需优化。三、智能体框架在红杉资本AI峰会第三期吴恩达教授分享了对智能体工作流的看法。在本次演讲中他谈到了AI agentic workflow也就是智能体工作流的迭代模式以及基于人工评估基准测试的效果分析还谈到了自己对于AI智能体设计模式的四种分类包括反思、工具使用、规划、多智能体协作。吴恩达教授介绍了四种主要的Agent设计模式每一种都展现了提高AI能力的潜力。1.Reflection反思Agent通过自我审视和修正输出提高结果的质量。例如在代码编写中Agent能够自我反思并修正错误从而生成更优质的代码。2.Tool Use工具使用LLM能够生成代码和调用API执行实际操作从而扩展了其应用范围。这种模式下LLM不仅能够生成文本还能够与外部工具和接口交互。3.Planning规划Agent能够分解复杂任务并按计划执行展现了AI在处理复杂问题上的能力。规划算法使得Agent能够更有效地管理和完成任务。4.Multiagent Collaboration多Agent协作多个Agent扮演不同角色合作完成任务模拟了一个真实的工作环境中的协作。这种方式的强大之处在于它能够让LLM不仅仅是执行单一任务的工具而是成为一个能够处理复杂问题和工作流程的协作系统。下面选两个常用框架进行详细介绍1、ReAct框架ReAct是一种将推理(Reasoning)与行动(Action)相结合的智能体架构。其核心思想是让智能体在思考过程中明确表达推理步骤然后基于推理选择适当的行动再根据行动结果更新认知形成一个持续的循环。1. ReAct模式的核心理念与循环ReAct是Reasoning and Acting思考与行动的缩写。它最初由2022年10月的一篇论文提出尽管已有近三年时间其提出的Agent运行模式至今仍被广泛使用。在ReAct模式下Agent的运行流程是一个持续的循环用户提交任务。Thought思考Agent首先进行思考决定接下来要做什么。Action行动思考后Agent决定是否调用工具。如果需要它会调用合适的工具如读取文件、写入文件内容等。请注意这里大模型是请求调用工具实际执行工具的是Agent的工具调用组件。Observation观察Agent查看工具的执行结果例如所读取的文件内容或写入是否成功。循环在观察之后Agent会继续思考再次判断是否需要调用工具。如果仍然需要它会重复Thought - Action - Observation的流程直到它认为不再需要调用工具可以直接给出结论为止。Final Answer最终答案当Agent认为任务完成时它会输出最终答案整个流程结束。因此ReAct流程的核心要素是Thought、Action、Observation和Final Answe。2. ReAct模式的实现奥秘系统提示词为什么大模型拿到用户问题后会先思考再行动而不是直接行动呢这与模型的训练过程关系不大大部分奥秘都集中在**系统提示词System Prompt**上。系统提示词是与用户问题一起发送给大模型的提示词它规定了模型的角色、运行时要遵守的规则以及各种环境信息等。如果希望模型按照ReAct模式返回答案系统提示词就会比较复杂。一个典型的ReAct系统提示词大致包含五个部分职责描述明确告诉模型它需要解决一个任务并将任务分解为多个步骤。对于每个步骤首先使用thought标签思考然后使用action标签调用工具工具的执行结果通过observation返回并持续这个思考和行动的过程直到有足够的信息提供final answer。示例提供具体的ReAct流程示例例如用户提问、模型思考、调用工具、观察结果、再次思考并给出最终答案的完整对话示例。这有助于模型理解并遵循预设的交互规范。可用工具列举Agent可用的工具列表及其功能说明例如用于读取文件内容、写入文件内容、运行终端命令的工具等。注意事项提供一些操作上的注意点。环境信息告知大模型当前的操作系、目录以及目录下的文件列表等相关环境信息。通过将这样的系统提示词和用户任务一起提交给大模型大模型就会遵循这些规范来输出答案从而实现ReAct模式的运行。3. ReAct模式的实际运行演示以DeepSeek为例当我们将包含ReAct规范的系统提示词和“写一个贪吃蛇游戏”的任务提交给它时DeepSeek会按照要求先在thought标签中思考然后使用action标签请求调用write_to_file工具来写入index.html文件内容。在实际的Agent中当大模型请求调用工具后Agent的工具调用组件会真正执行该工具例如将HTML内容写入文件。然后工具的执行结果如“写入成功”会作为observation返回给Agent主程序Agent主程序再将其加入到历史消息列表并再次发送给大模型。模型拿到工具的执行结果后就能根据结果推测下一步要干什么继续进行思考thought并请求写入CSS、JS文件。当所有文件写入完成后大模型在thought之后会返回一个final answer整个回答过程便彻底结束。这个过程完美体现了ReAct的运行节奏Thought-Action-Observation直到任务完成输出Thought-Final Answer。系统提示词相当于给模型安排了一个迷你剧本模型会严格按照这个剧本一步一步走完。一个完整的ReAct Agent其核心代码在于一个run函数。这个函数内部构建了一个消息列表包含系统提示词和用户问题然后调用模型获取执行结果。它会提取返回结果中的thought部分并打印然后检测是否包含final answer。如果不是就解析出action提取函数名和参数并执行对应的工具。工具执行结果会被放入observation并添加到消息列表然后循环再次请求模型直到模型返回final answer。在这里我推荐一个提示词商城2、Reflexion框架Reflection机制的核心思想是为智能体引入一种事后(post-hoc)的自我校正循环使其能够像人类一样审视自己的工作发现不足并进行迭代优化。它为智能体提供了一个内部纠错回路使其不再完全依赖于外部工具的反馈(ReAct的Observation)从而能够修正更高层次的逻辑和策略错误。Reflexion是一个框架为Agent提供动态记忆和自我反思的能力以提高推理技能。Reflexion采用标准的强化学习设置奖励模型提供简单的二元奖励即判断行动正确与否而行动空间遵循 ReAct 中的设置通过语言加强特定任务的行动空间增加了复杂的推理步骤。在每个行动之后Agent会计算一个启发式值并根据自我反思的结果决定是否重置环境以开始新的试验。Reflexion是一种强化学习方法与传统强化学习调整参数调优的方法不同本模型使用语言反馈而不是更新参数权重来强化语言智能体。旨在分析错误形成反思并保存作为上下文帮助后续决策。构造了一个基于当前环境的短期存储和基于反思的长期存储相结合的模型。三、模型上下文协议MCP在构建由大型语言模型LLM驱动的智能应用时如何让 AI 不仅仅停留在文本生成而是能够与外部世界的数据和工具进行交互是一个核心挑战。Anthropic 推出的Model Context Protocol (MCP)正是为了解决这一问题它提供了一个标准化的框架让 AI 应用能够安全、高效地获取上下文信息并调用外部功能。我认为 MCP 的出现是 prompt engineering提示工程发展的产物。更结构化的上下文信息对模型的性能提升是显著的。我们在构造 prompt 提示词时希望能提供一些更具体的信息比如本地文件数据库一些网络实时信息等给模型这样模型更容易理解真实场景中的问题。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2025 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取