o2o电子商务网站网站建设中字样图片
2026/1/26 1:35:41 网站建设 项目流程
o2o电子商务网站,网站建设中字样图片,爱站工具下载,忽悠别人做商城网站AI 智能体应用在企业实际落地越来越多#xff0c;一个完整的 AI 智能体应用系统通常包含三个主要角色#xff1a;用户、AI 智能体和外部工具。AI 智能体架构设计的核心任务之一#xff0c;就是解决这三个角色之间的沟通问题。 这三个角色的沟通#xff0c;涉及到#xff…AI 智能体应用在企业实际落地越来越多一个完整的 AI 智能体应用系统通常包含三个主要角色用户、AI 智能体和外部工具。AI 智能体架构设计的核心任务之一就是解决这三个角色之间的沟通问题。这三个角色的沟通涉及到MCP 协议、A2A 协议和 AG-UI 协议。其中MCP 协议解决 AI 智能体和外部工具的标准化交互问题A2A 协议解决 AI 智能体间的标准通信问题AG-UI 解决前端应用比如APP和 AI 智能体间的标准交互的问题。下文详细剖析之。一、MCP 协议架构设计MCP模型上下文协议是由 Anthropic 定义的一个开放协议标准化应用程序如何为大语言模型LLM提供上下文。更具体地说它试图标准化基于 LLM 的应用程序与其他环境集成的协议。在 AI Agent 系统Agentic Systems中上下文可以通过多种方式提供1、外部数据这是长期记忆的一部分。2、工具系统与环境交互的能力。3、动态提示词可以作为系统提示词System Prompt的一部分注入。第一、为什么要标准化目前AI Agent 应用的开发流程很混乱1、有许多 AI 智能体框架存在细微差异。虽然看到生态系统蓬勃发展令人鼓舞但这些细微差异很少能带来足够的价值但可能会显著改变你的代码编写方式。2、与外部数据源的集成通常是临时实现的并且使用不同的协议即使在组织内部也是如此。对于不同公司来说这显然是如此。2、工具在代码库中以略微不同的方式定义。如何将工具附加到增强型 LLM 上也是不同的。目标是提高我们创新 AI 智能体应用的速度、安全性以及将相关数据带入上下文的便利性。第二、MCP 协议架构设计1、MCP Host使用 LLM 为核心并希望通过 MCP 访问数据的程序。2、MCP Client与 MCP Server 保持1:1连接的客户端。3、MCP Server每个 MCP Server 都通过标准化的模型上下文协议公开特定功能的轻量级程序。4、Local Data Sources你计算机上的文件、数据库和服务MCP Server 可以安全访问。5、Remote Data Sources通过互联网可用的外部系统比如通过 APIMCP Server 可以连接到这些系统。第三、通过 MCP 分离控制责任MCP Server 公开三个主要元素Prompts、Resoures、Tools这些元素是有意设计的以帮助实现特定的控制分离。1、Prompts 提示词被设计为用户控制的。后端的程序员可以公开特定的提示词适用于与后端服务公开的数据交互这些提示词可以注入到使用 LLM 的应用程序中并暴露给给定应用程序的用户。2、Resoures 资源被设计为应用程序控制的。Resources 资源是任何可以被利用 LLM 构建的应用程序使用的数据文本或二进制。应用程序的程序员通常是 AI 应用开发工程师负责将这些信息编码到应用程序中。通常这里没有自动化LLM 不参与此选择。3、Tools 工具被设计为大模型控制的。如果我们赋予应用程序如何与环境交互的代理权我们使用 Tools 工具来实现这一点。MCP Server 公开一个端点可以列出所有可用 Tools 工具及其描述和所需参数应用程序可以将此列表传递给 LLM以便它决定哪些 Tools 工具适用于手头的任务以及如何调用它们。二、A2A 协议架构设计第一、为什么会有 A2A现在越来越清楚未来的 AI 智能体系统Agentic Systems将是多 AI 智能体的。而且这些 AI 智能体会在彼此之间远程协作每个 AI 智能体都可能使用不同的 AI 智能体框架比如LangGraph、AutoGen、CrewAI、Agent Development Kit 等来实现。这里面有3个固有的问题1、不同框架实现的 AI 智能体系统之间不支持系统状态的转移和交换。2、远程 AI 智能体之间也无法转移系统状态。3、离线的 AI 智能体不共享工具、上下文和内存包括系统状态。第二、A2A 解决方案A2A 是一个开放协议它为 AI 智能体之间提供了一种标准方式无论底层开发框架或供应商如何都可以进行协作。根据谷歌的官方文档 A2A 协议促进了“客户端”和“远程” AI 智能体之间的通信。简单来说“客户端” AI 智能体创建任务并与“远程” AI 智能体沟通期望执行某些工作或返回数据。第三、A2A 架构设计1、能力发现所有实现 A2A 的 AI 智能体都通过“Agent Card”公开其能力目录。这有助于其他 AI 智能体发现给定 AI 智能体实现的潜在有用功能。2、任务管理通信协议使得短期和长期任务变得更容易。它帮助通信中的 AI 智能体保持同步直到请求的任务完成并返回答案。这很重要因为有些 AI 智能体可能需要很长时间来执行工作而且目前没有统一标准如何等待这种情况发生。3、协作AI 智能体可以相互发送消息以传达上下文、回复、工件或用户指令。4、用户体验协商这是一个很有趣的功能。它允许协商数据返回的格式以符合用户界面的期望比如图像、视频、文本等。通过 A2A 公开的 AI 智能体的发现是一个重要话题。谷歌建议使用统一的位置来存储组织的“Agent Card”。比如https://DOMAIN/agreed-path/agent.json这并不意外因为谷歌将处于最佳位置能够索引全球所有可用的 AI 智能体可能创建一个类似于当前搜索引擎索引的全球 AI 智能体目录。我喜欢 A2A 强调无需重新发明轮子并且建立在现有标准之上1、该协议建立在现有、流行的标准之上包括HTTP、SSE、JSON-RPC这意味着它更容易与企业日常使用的现有 IT 堆栈集成。2、默认安全 - A2A 旨在支持企业级身份验证和授权与 OpenAPI 的身份验证方案相当。三、AG-UI 协议架构设计第一、为什么需要 AG-UI每个 AI 智能体后端都有自己的工具调用、ReAct 样式规划、状态差异和输出格式机制。如果你使用 LangGraph前端将实现自定义的 WebSocket 逻辑、杂乱的 JSON 格式和特定于 LangGraph 的 UI 适配器。但要迁移到 CrewAI/Dify 等一切都必须进行调整这样工作量大大增加。第二、AG-UI 架构设计AG-UI 使用一个轻量级、事件驱动的协议来连接 AI Agents 和前端应用程序架构设计如图所示Front-end通过 AG-UI 进行通信的应用聊天或任何启用 AI 应用 AI Agent A前端可以直接连接的 AI Agent无需通过代理Secure Proxy一个中介代理安全地将前端的请求路由到多个 AI AgentsAI Agent B 和 C由代理服务管理的 AI Agents。第三、AG-UI 工作机制AG-UI 的核心工作机制非常简洁而优雅如下图所示客户端通过 POST 请求启动一次 AI Agent 会话随后建立一个 HTTP 流可通过 SSE/WebSocket 等传输协议用于实时监听事件每条事件都有类型和元信息MetadataAI Agent 持续将事件流式推送给 UIUI 端根据每条事件实时更新界面与此同时UI 也可反向发送事件、上下文信息供 AI Agent 使用。AG-UI 不再是单向的信息流而是一种真正的双向“心跳式”交互机制。AG-UI 就像 REST 是客户端到服务器请求的标准一样AG-UI 将实时 AI Agent 更新流式传输回 UI 的标准。从技术上讲AG-UI 使用服务器发送事件SSE将结构化 JSON 事件流式传输到前端。每个事件都有一个显式的有效负载比如Python 字典中的 keysTEXT_MESSAGE_CONTENT 用于令牌流式处理TOOL_CALL_START 以显示工具执行情况STATE_DELTA 更新共享状态代码、数据等AGENT_HANDOFF 在 AI Agent 之间顺利传递控制权。并且 AG-UI 带有 TypeScript 和 Python 的 SDK即插即用适用于任何技术栈如下图所示在上图中来自 AI Agent 的响应并不特定于任何工具包。这是一个标准化的 AG-UI 响应。AG-UI 提供了前端 TypeScript 和后端 Python 的 SDK可无缝接入到现有 AI Agent 代码中核心模块包括RunAgentInput运行 AI Agent 的输入参数Message用户助手通信和工具使用Context提供给 AI Agent 的上下文信息Tool定义 AI Agent 可以调用的函数StateAI Agent 状态管理。1、前端接入npm install ag-ui/core npm install ag-ui/client2、后端 Python 端接入from ag_ui.core import TextMessageContentEvent, EventType from ag_ui.encoder import EventEncoder # Create an event event TextMessageContentEvent( typeEventType.TEXT_MESSAGE_CONTENT, message_idmsg_123, deltaHello, world! ) # Initialize the encoder encoder EventEncoder() # Encode the event encoded_event encoder.encode(event) print(encoded_event) # Output: data: {type:TEXT_MESSAGE_CONTENT,messageId:msg_123,delta:Hello, world!}\n\n第四、AG-UI 关键特性 轻量级设计简单易于理解与扩展 支持多种传输协议Server-Sent EventsSSE、WebSocket、Webhook 任你选择 真正双向同步支持实时对话、工具调用、上下文更新等 框架无关LangGraph、CrewAI、Mastra 等框架均可无缝对接️ 宽松的 Schema 匹配策略低耦合、高兼容降低开发门槛⚙️ 即插即用开源协议前端比如React/Vue快速集成无门槛。第五、AG-UI、A2A、MCP 协议对比AG-UI 明确且专门针对 AI 智能体-用户交互层。它不与诸如 A2AAI Agent 到 AI Agent 协议和 MCP模型上下文协议等协议竞争。比如同一个 AI 智能体可能通过 A2A 与另一个 AI 智能体通信同时通过 AG-UI 与用户通信同时调用由 MCP Server 提供的工具。这些协议在 AI 智能体生态系统中起到互补的作用AG-UI处理人在循环中的交互和流式 UI 更新A2A促进 AI 智能体到 AI 智能体之间的通信和协作MCP在不同模型之间标准化工具调用和上下文处理。四、AI 智能体协议架构设计总结AI 智能体协议三部曲的对比如下AI 智能体架构设计中的这三个协议共同构成了 AI 智能体应用系统架构设计的基础设施。它们让 AI 智能体能够“长出手脚”通过 MCP 实现操作能力、拥有协作伙伴通过 A2A 实现 AI 智能体之间的协作并且能够通过 AG-UI 与用户直接交互实现落地应用。这三个协议推动了 AI 智能体应用系统从单一 AI 智能体向多 AI 智能体 的进化不仅提升了底层能力还优化了上层的用户体验。同时它们的开放性和兼容性也为更多 AI 创新应用和跨领域协作提供了可能。五、如何系统的学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】01.大模型风口已至月薪30K的AI岗正在批量诞生2025年大模型应用呈现爆发式增长根据工信部最新数据国内大模型相关岗位缺口达47万初级工程师平均薪资28K数据来源BOSS直聘报告70%企业存在能用模型不会调优的痛点真实案例某二本机械专业学员通过4个月系统学习成功拿到某AI医疗公司大模型优化岗offer薪资直接翻3倍02.大模型 AI 学习和面试资料1️⃣ 提示词工程把ChatGPT从玩具变成生产工具2️⃣ RAG系统让大模型精准输出行业知识3️⃣ 智能体开发用AutoGPT打造24小时数字员工熬了三个大夜整理的《AI进化工具包》送你✔️ 大厂内部LLM落地手册含58个真实案例✔️ 提示词设计模板库覆盖12大应用场景✔️ 私藏学习路径图0基础到项目实战仅需90天第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询