2026/3/24 3:17:12
网站建设
项目流程
国外的旅游网站开发,沂水网站建设,建设网站的一般步骤,做网站编辑工作好不好文章解析了大模型从2023年聊天机器人时代到2025年智能体与系统工程的范式转变#xff0c;提出现代AI应用四层架构#xff1a;智能层(基础模型)、能力层(工具与技能)、连接层(MCP协议)和编排层(LangGraph/LangChain)。强调工程重心从随机模型调用转向确定性系统构建#xff0…文章解析了大模型从2023年聊天机器人时代到2025年智能体与系统工程的范式转变提出现代AI应用四层架构智能层(基础模型)、能力层(工具与技能)、连接层(MCP协议)和编排层(LangGraph/LangChain)。强调工程重心从随机模型调用转向确定性系统构建并指出未来开发者需从确定性编程思维转向概率系统工程思维掌握认知架构设计和AI协作能力。1、宏观生态概览从随机生成到确定性工程1.1 2025年 AI 工程化的范式转移在2023年至2025年的短短两年间大语言模型LLM的工程生态经历了一场深刻的范式转移。如果说2023年是“聊天机器人Chatbot”的元年其特征是依靠提示词工程Prompt Engineering来试图驯服随机性模型那么2025年则是“智能体Agent”与“系统工程System Engineering”的时代。在这个新阶段工程重心已从单一的“对话框”转移到了构建具备自主性、互操作性和状态持久性的复杂系统上 [1]。根据开源LLM开发生态报告的数据截至2025年12月GitHub上94%的趋势项目都与AI相关显示出开发者社区的注意力已完全被这一领域通过。然而这种关注点的性质发生了根本变化。早期的“哪个模型最强”的军备竞赛思维正在被“如何为特定场景构建最可靠的系统”的工程思维所取代 [1]。我们正处于“自主时代Era of Autonomy”的开端这一时代的标志是AI不再仅仅是被动的问答工具而是能够主动规划、使用工具并改变环境的智能体。这种转变背后的核心驱动力是从“对话交互”向“任务闭环”的跨越。当应用场景从简单的聊天机器人Chatbot升级为能够独立解决问题的智能体Agent时单纯依赖模型能力的随机性已不可接受。为了实现系统工程所需的确定性与可靠性工程架构必须从单一的模型调用进化为能够协调多个专用模型、管理复杂工具链、并维持长期记忆的精密编排系统。1.2 现代 LLM 应用架构的四层模型为了系统性地理解当前的工程生态我们需要将现代AI应用栈解构为四个核心层次。这四个层次恰好对应了用户询问的几个核心概念Agent、Skills/Tools、MCP、以及LangGraph/LangChain。智能层The Intelligence Layer这是系统的“大脑”由基础大模型如Claude 3.5, GPT-4o, DeepSeek, Llama 3构成。它们提供核心的推理Reasoning能力即理解意图和生成逻辑计划的能力 [2]。能力层The Capability Layer这是系统的“手”和“技能书”。它包含了工具Tools可执行的函数如API调用和技能Skills领域知识与操作流程。这是智能体与物理世界或数字世界交互的界面 [3]。连接层The Connectivity Layer这是系统的“神经系统”或“总线”。随着工具数量的激增专用的API封装已不再适用。模型上下文协议Model Context Protocol, MCP 应运而生成为了连接模型与数据源、工具的标准接口被誉为AI时代的“USB-C”接口 [4]。编排层The Orchestration Layer这是系统的“操作系统”。它负责管理任务的生命周期、状态记忆、决策循环以及错误恢复。LangChain 提供了组件集成的胶水层而 LangGraph 则提供了构建复杂、有状态、循环工作流的运行时环境 [6]。1.3 从 MLOps 到 AgentOps 的演进随着架构的复杂化传统的机器学习运维MLOps正在向智能体运维AgentOps转型。传统的MLOps关注的是模型训练的流水线和参数监控而AgentOps关注的是非确定性软件的行为管理 [8]。在2025年的生态中我们看到Arize AI、Galileo等工具的兴起它们专注于解决LLM特有的问题幻觉检测、链路追踪Tracing、以及多步推理过程中的成本控制。在这一背景下数据工程的基础设施也在发生适应性变化。数据湖架构标准化为Apache Iceberg和Delta Lake以支持大规模的非结构化数据管理从而喂养RAG检索增强生成系统流处理引擎如Apache Flink和Clickhouse正扩展向量搜索能力以满足智能体对实时上下文检索的需求 [8]。这一切都表明LLM工程已不再是孤立的脚本编写而是深深嵌入到了企业级软件工程的版图中。2、智能体Agent自主决策的核心单元2.1 智能体的定义与本质区别在深入探讨技术细节之前必须厘清“智能体Agent”这一概念的工程定义。在市场营销话术中任何接入了API的聊天机器人都可能被称为Agent但在严谨的系统架构中智能体与传统的工具或助手有着本质的区别。根据行业共识智能体是一个利用大语言模型决定应用程序控制流的系统 [9]。其核心特征在于自主性Autonomy。特征维度工具 (AI Tools)助手 (AI Assistants)智能体 (AI Agents)触发机制被动由人类明确调用响应式响应用户查询主动/半主动基于目标自主规划决策权无仅执行预定义逻辑低建议行动由人决策高自主决定步骤、工具选择与执行顺序状态与记忆无状态Stateless短期会话记忆长期持久化状态跨会话记忆环境交互单向输出文本交互为主感知环境 - 推理 - 行动 - 观察结果 - 循环典型示例图像识别API、摘要生成器ChatGPT 网页版、客服机器人自主软件工程师Devin、自动驾驶系统智能体不仅仅是回答问题它是为了完成目标。正如Stuart Russell和Peter Norvig在经典定义中所述智能体是“感知环境并对其采取行动以实现目标的任何事物” [9]。在LLM语境下这意味着模型不再仅仅是生成文本而是生成行动序列。它会观察当前的各种状态如数据库的内容、代码的运行结果通过推理决定下一步做什么如“查询数据库”或“修改代码”然后执行并检查结果。这种“感知-推理-行动-观察”的循环PRO Loop是智能体架构的灵魂 [10]。2.2 认知架构智能体如何“思考”智能体的“智力”不仅取决于底层模型的参数量更取决于其认知架构Cognitive Architecture的设计。这是指系统如何组织提示词、记忆和控制流以引导模型完成复杂任务。2025年的主流认知架构包括ReAct (Reasoning Acting) 模式这是最基础的智能体模式。模型被要求在执行动作前先进行“思考”。例如面对“查询天气”的任务模型会输出“思想用户想知道天气 - 行动调用get_weather API - 观察API返回25度 - 思想我已经有了答案 - 最终回答天气是25度”。这种显式的推理链条极大地提高了模型使用工具的准确性 [11]。规划与执行Plan-and-Solve模式对于复杂任务如“写一份关于AI趋势的市场报告”单步的ReAct往往容易迷失方向。规划模式要求智能体首先生成一个全局计划Plan例如“1. 搜索最新论文2. 总结关键趋势3. 撰写草稿”。然后智能体按顺序执行这些步骤。这种将“规划”与“执行”解耦的设计是解决长程任务的关键 [2]。反思与自我修正Reflection / Self-Correction模式这是迈向高可靠性的关键一步。在这种架构中智能体在生成输出后会有一个“批评者Critic”角色可以是同一个模型也可以是另一个更强的模型来审查结果。如果发现错误或不足智能体会进入修正循环。例如OpenManus等项目就利用这种机制在生成代码后自我运行测试根据报错信息修正代码直到通过为止 [1]。2.3 从单智能体到多智能体系统Multi-Agent Systems2025年工程生态的一个显著趋势是多智能体协作的兴起。单智能体系统Single-Agent虽然部署简单但在面对复杂、多领域的任务时往往会遭遇“上下文污染”和能力瓶颈。一个试图既做程序员又做产品经理的Prompt往往两样都做不好 [10]。多智能体系统MAS通过专业化分工解决了这一问题。角色专业化每个智能体被赋予特定的角色Persona和有限的工具集。例如“研究员智能体”只能使用搜索引擎“编码智能体”只能使用代码解释器。这大大降低了模型产生幻觉的概率因为上下文更加聚焦。协作模式智能体之间通过标准化的消息进行通信。最典型的模式是监督者模式Supervisor Pattern。在这种模式下一个中心化的“监督者”智能体负责接收用户需求将任务拆解并分发给底层的“工入”智能体然后汇总结果。这种层级化的控制结构模拟了人类组织的管理方式显著提升了复杂任务的成功率 [13]。3、能力层Agent Skills 与 Tools 的辩证关系在构建智能体时开发者面临的一个核心问题是如何赋予智能体能力这里存在两个经常被混淆但架构上截然不同的概念工具Tools与技能Skills。理解这两者的区别是构建生产级智能体的关键 [3]。3.1 定义与区别执行 vs. 专业知识工具Tools是“手”代表执行能力。工具是一个具有明确输入输出的可执行函数。它通常由JSON Schema定义。当智能体调用工具时会在物理或数字世界产生副作用——查询数据库、发送邮件、写入文件。工具是确定性的、无状态的。工具本身不包含“智慧”它只是能力的端点。OpenAI的Function Calling是典型的工具范式系统给模型一把锤子模型需要自己判断何时以及如何使用它 [3]。技能Skills是“脑中的知识”代表专业素养。技能是封装好的专业知识Expertise。它不仅包含工具还包含使用这些工具的上下文、指令、最佳实践和流程模板。技能不直接执行代码而是塑造智能体的思维方式。例如一个“Python编程技能”不仅仅是提供一个运行代码的工具它还包含了“编写符合PEP8规范的代码”、“遇到错误时先检查依赖库”等指导性知识。Anthropic的Agent Skills架构强调的是赋予智能体解决特定领域问题的“元知识” [17]。3.2 架构上的权衡Token经济学与上下文管理这种区分在工程实施中带来了巨大的差异主要体现在Token消耗和上下文窗口的管理上。工具优先Tools-Heavy架构的挑战在纯工具架构中智能体启动时需要加载所有可用工具的定义Schema。如果一个企业级智能体接入了1000个API仅加载这些API的描述就可能消耗数万个Token的上下文窗口 [3]。这不仅极其昂贵而且由于上下文过长会干扰模型的推理能力导致“大海捞针Needle in a Haystack”效应降低工具选择的准确性。技能优先Skills-Heavy架构的优势Anthropic提出的技能架构采用了渐进式披露Progressive Disclosure的设计模式。元数据层Level 1智能体初始只加载技能的名称和简短描述如“法律文档助手”。这只占用极少的Token。指令层Level 2当智能体决定使用某项技能时它才会动态加载该技能对应的详细指令文件通常是SKILL.md。资源层Level 3如果技能执行过程中需要参考具体的模板或数据智能体再按需读取。这种类似人类专家的工作方式——不需要背诵所有法律条文只需要知道去哪里查阅——极大地优化了Token使用效率并提升了推理的聚焦度 [17]。3.3 技术实现对比OpenAI vs. Anthropic特性OpenAI Tools (Function Calling)Anthropic Agent Skills核心理念工具即函数Code-First技能即知识包Knowledge-First载体形式JSON Schema文件夹结构Markdown 脚本上下文管理预加载所有Schema动态加载Progressive Disclosure适用场景确定性强、动作单一的任务流程复杂、需要领域知识的任务生态封闭性倾向于封闭生态Assistants API倾向于开放标准结合MCP工程建议在实际开发中最佳实践是将二者结合。使用Skills来包装Tools。即将相关的工具集如GitHub API的增删改查封装在一个Skill如“代码审查技能”中并在Skill的Prompt中写入代码审查的最佳实践。这样既利用了工具的执行力又注入了领域的专业性 [3]。4、连接层模型上下文协议MCP随着智能体需要连接的外部系统越来越多传统的“一对一”集成方式为每个模型写适配每个API的代码遇到了严重的瓶颈这就是所谓的“N x M”集成难题。模型上下文协议Model Context Protocol, MCP 的出现旨在解决这一问题被形象地称为AI时代的“USB-C接口” [4]。4.1 MCP 的核心价值与架构MCP是一个开放标准旨在标准化AI应用Host与外部数据/工具Server之间的连接。它的核心思想是解耦开发者只需要为某个数据源如Google Drive编写一次MCP Server它就可以被任何支持MCP的客户端如Claude Desktop, Cursor, LangChain应用直接使用而无需为每个应用单独开发插件 [5]。MCP的架构由三个主要部分组成MCP Host主机发起请求的AI应用程序例如你的智能体或IDE。MCP Client客户端位于Host内部负责与Server建立连接并维持协议通信。MCP Server服务端提供数据和能力的端点。它通过标准接口暴露资源Resources、工具Tools和提示词Prompts。4.2 协议细节JSON-RPC 与传输层MCP的技术实现基于JSON-RPC 2.0协议。这是一种轻量级的、无状态的远程过程调用协议。通信机制请求RequestClient向Server发送请求例如“列出所有工具tools/list”或“调用工具tools/call”。请求必须包含唯一的ID。响应ResponseServer处理后返回结果或错误信息。通知Notification一种不需要响应的单向消息常用于日志记录logging/message或进度报告progress [21]。传输层Transport Layer MCP定义了两种主要的传输方式适应不同的部署场景 [4]Stdio标准输入输出适用于本地集成。Host通过子进程Subprocess启动Server并通过标准输入stdin和标准输出stdout进行通信。这种方式安全性高延迟低非常适合桌面应用如让Claude读取你本地的文件。SSEServer-Sent Events/ HTTP适用于远程分布式集成。Client通过HTTP POST发送请求Server通过SSE长连接推送异步更新。这是构建云端智能体集群的标准方式。4.3 MCP 对工程生态的深远影响MCP不仅仅是一个技术协议它正在重塑AI的供应链。标准化发现机制MCP Server可以像微服务一样被发现。智能体可以通过initialize握手自动获知Server提供了哪些工具而无需开发者手动硬编码 [24]。安全性增强在MCP架构中Server是被动响应的且Host即用户端拥有控制权。用户可以明确授权智能体可以访问哪些数据遵循“最小权限原则”。这比传统的将所有数据上传到云端向量库的做法更安全、更合规 [18]。采样Sampling能力MCP允许Server反向请求Host的大模型进行推理。这意味着一个简单的文件读取工具可以请求Host的大模型“先总结一下这个文件的内容再传给我”实现了计算能力的双向流动 [25]。目前Anthropic、LangChain等主流玩家都已全面支持MCP这标志着AI工程正在从封闭的“围墙花园”走向开放互联的“万维网”模式 [26]。5、编排层LangChain 与 LangGraph 的演进当我们就拥有了模型大脑、技能知识和MCP连接后还需要一个框架将它们组装起来管理任务的流转和状态。这就是编排层的作用。在这一领域LangChain 和 LangGraph 是两个绕不开的名字但它们解决的问题截然不同。5.1 LangChain集成的胶水LangChain 是LLM应用开发的先驱。它的核心价值在于封装和组件化。统一接口它抹平了不同模型提供商OpenAI, Anthropic, GoogleAPI的差异让开发者可以轻松切换模型。链Chains的概念LangChain最初的设计哲学是基于有向无环图DAG的“链式调用”。输入 - 提示词模板 - 模型 - 输出解析器。这种线性的流处理非常适合简单的问答或RAG应用 [6]。局限性随着应用向“智能体”进化线性的链式结构变得捉襟见肘。智能体需要循环Loop、需要根据结果回退、需要复杂的条件分支。用LangChain的旧式AgentExecutor去实现这些逻辑往往导致代码变得难以维护和调试 [28]。5.2 LangGraph智能体的运行时环境为了解决LangChain在复杂场景下的局限性LangChain团队推出了LangGraph。LangGraph并非LangChain的替代品而是其核心能力的升维——从“链”进化到了“图” [7]。核心架构状态机State Machine LangGraph将智能体建模为一个有状态的图。节点Nodes代表执行步骤如“调用LLM”、“执行工具”、“更新记忆”。边Edges代表控制流。可以是普通的跳转也可以是条件跳转Conditional Edges例如“如果工具调用成功去下一步如果失败回退重试” [7]。状态State这是LangGraph的灵魂。不同于LangChain隐式的传递变量LangGraph要求开发者显式定义一个全局状态Schema通常是一个TypedDict。图中的每个节点都接收这个状态并输出对状态的更新Update。这种显式的状态管理使得系统的行为高度可预测和可调试 [29]。关键特性持久化与“时间旅行” LangGraph引入了检查点Checkpointer机制。系统会在每一步执行后将当前的状态快照保存到数据库如Redis, Postgres中 [29]。这带来了两大革命性能力容错与恢复如果系统崩溃重启后可以从断点处继续执行而不是从头开始。这对于耗时较长的智能体任务至关重要。人机协同Human-in-the-Loop智能体可以运行到某个节点如“发送邮件前”暂停等待人类用户的批准或修改然后再继续执行。这种交互模式在企业级应用中是刚需 [30]。时间旅行Time Travel开发者可以查看智能体在过去某一步的状态甚至修改该状态并从那里重新分叉Fork执行这极大地便利了调试和测试 [30]。5.3 LangChain 与 LangGraph 的选择指南比较维度LangChainLangGraph核心隐喻流水线 (Pipeline / DAG)循环图 (Cyclic Graph / State Machine)控制流线性为主难以实现复杂循环原生支持循环、分支、回退状态管理隐式传递较难追踪显式定义的共享状态 (Schema-First)适用场景简单RAG、一次性问答、数据处理管道长期运行的智能体、多轮对话、人机协同学习曲线较低适合快速原型较高需要理解图论和状态机概念总结在2025年的架构中LangGraph是骨架LangChain是肌肉。通常的做法是使用LangGraph来定义智能体的整体流程图结构而在图的节点内部使用LangChain的组件来调用模型或处理文档 [7]。6、未来的挑战与展望LLM的工程生态已经完成了一次蜕变但更大的挑战在于“人”的思维转型。对于算法研究员和应用开发者而言全面拥抱AI和LLM新时代意味着必须完成从传统软件思维到智能体思维Agentic Thinking的深刻跨越。6.1 思维范式的根本性重构这不仅仅是技术栈的更新而是全流程的认知重塑产品设计从“功能堆砌”到“意图设计”传统产品设计关注用户点击哪个按钮触发哪个功能。而在智能体时代产品经理需要定义的是“目标Goal”和“约束Constraints”。我们需要设计的是智能体如何理解模糊的用户意图以及在何种边界内自主行动。交互界面将从复杂的菜单树回归到自然语言与多模态的混合交互。应用研发从“确定性编程”到“概率系统工程”开发者习惯了if-else的确定性逻辑但LLM本质上是概率性的。新的挑战在于如何在一个不确定的核心LLM之上构建可靠的系统。这要求我们掌握提示词工程Prompt Engineering来引导模型利用评估驱动开发Evaluation-Driven Development来量化效果并设计鲁棒的容错与回退机制。代码不再只是指令的集合而是对模型思考过程的编排。算法研究从“模型优化”到“认知架构设计”对于算法人员单纯追求模型参数的SOTA已不足够。重心正转向设计更优秀的认知架构Cognitive Architecture——如何让模型拥有更长期的记忆、更高效的规划能力、以及更精准的自我反思机制。未来的算法创新将更多发生在System 2慢思考的系统设计层面而非仅仅是System 1快思考的模型训练层面。6.2 展望构建 AI 原生的未来尽管挑战巨大但工具生态的成熟正在加速这一进程。MCP 让万物互联成为可能为智能体提供了标准化的感官与手脚。LangGraph 赋予了智能体逻辑严密的“心智模型”让复杂的业务流转变得可控。Skills 沉淀了领域专家的智慧让智能体真正具备了职业素养。在这个新时代核心竞争力不再仅仅是写代码的速度而是定义问题、设计智能体认知流程、以及与AI协作共创的能力。工程的严谨性与AI的创造力将在“智能体思维”的指引下完美融合。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】