2026/3/24 12:28:42
网站建设
项目流程
网站名称图标如何做才能显示,百度下载电脑版,简述网络营销产品的概念,常州网站设计平台简介
文章系统介绍了大模型技术体系#xff0c;包括AIGC(单/多模态)、RAG技术、Function Calling、智能体Agent及MCP协议。AIGC解决内容生成#xff0c;RAG增强实时信息获取#xff0c;Function Calling赋予工具调用能力#xff0c;Agent实现任务闭环#xff0c;MCP提供统…简介文章系统介绍了大模型技术体系包括AIGC(单/多模态)、RAG技术、Function Calling、智能体Agent及MCP协议。AIGC解决内容生成RAG增强实时信息获取Function Calling赋予工具调用能力Agent实现任务闭环MCP提供统一工具集成标准。同时规划了从初阶应用到商业闭环的学习路径帮助读者全面掌握AI技术。一、前言今天我们来聊下AI相关的一些知识点。为啥会写这篇文章是因为我前几天看到一个报告报告显示大部分人还只是停留在简单与模型对话甚至只有2%的人开发过智能体更离谱的是30%多仅仅是听说过。表明整体AI技能基础相对薄弱。技术圈针对AI已经到了疯癫的程度这份报告颠覆了我之前的看法以为AI如干柴烈火之势的发展大家应该或多或少都知道一些相关的知识但在技术圈往往会出现幸存者偏差所以老周得出来写一篇AI相关技术的普及知识。随着AI技术发展迅猛日新月异。大语言模型LLM、AIGC、多模态、RAG、Agent、MCP等各种相关概念层出不穷极易混淆。老周这次不讲太多原理性的东西作为技术科普文来聊一聊这其中的关系。二、AIGC2.1 单模态我们大部分人都是从ChatGPT问世开始接触AI的。刚开始用ChatGPT的时候我们体验的其实是一种文生文的能力。比如你输入一句话模型给你生成一段文字回应。不管是我们平时写代码、还是写文章都是AI根据你的输入文字提示词Prompt生成另一段文字。这种让AI自动生成内容的能力就叫做AIGC。啥叫AIGC呢下面来自百度百科的回答AIGCArtificial Intelligence Generated Content——生成式人工智能是指基于生成对抗网络、大型预训练模型等人工智能的技术方法通过已有数据的学习和识别以适当的泛化能力生成相关内容的技术。 AIGC技术的核心思想是利用人工智能算法生成具有一定创意和质量的内容。老周用大白话说就是用AI自动生成“人类常干的活”。2.2 多模态随着AI的进化不只是文生文像文生图、图生文、文生视频、图生视频等也都逐渐支持了而这种支持多种类型消息的就被称为多模态。比如现在的GPT-5。而这些多模态模型才是真正让AI从工具进化成助手的关键。AIGC不管单模态还是多模态有两个天生的限制不具备实时性LLM是离线训练的一旦训练完成后它们无法获得新的信息。因此它们无法回答训练数据时间点之后发生的事件比如“今天的最新新闻”。不会使用工具最初的AIGC只可以从现在的知识库中获取内容而不会查询最新的信息也不能调用API。因此这就引出了两个技术方向一个叫RAG一个叫Function Call。2.3 RAG 技术RAGRetrieval-Augmented Generation检索增强生成 技术它是一种人工智能AI框架结合了信息检索和生成式语言模型的能力以提高响应的准确性和相关性。核心思想当 LLM 需要回答一个问题或生成文本时不是仅依赖其内部训练时学到的知识而是先从一个外部知识库中检索出相关的信息片段然后将这些检索到的信息与原始问题/指令一起提供给LLM让LLM基于这些最新、最相关的上下文信息来生成更准确、更可靠、更少幻觉的答案。通俗的讲原来模型靠死记硬背现在它成了会“看资料答题”的开卷考试了。RAG的工作原理检索Retrieval 系统首先识别用户查询中的关键词并使用一个检索模型在大型数据集如文档库、数据库或互联网中查找与查询最相关的文本片段。增强Augmented 检索到的信息被整合到原始的用户提示prompt中为语言模型提供额外的上下文信息。生成Generation 大型语言模型接收到增强后的提示并利用这些检索到的事实信息来生成一个更丰富、更准确且与用户需求更贴切的回答。这是原始RAG最经典的一张图了当然后续还有进阶RAG和高级RAG这块单独还能出一篇为了有些新手看的没那么复杂老周这里把后面两个屏蔽掉了。无非在检索前做些优化查询路由、查询重写、查询扩展、检索后优化重排序、过滤、聚合。假如我想查询现在的天气RAG只会根据现在的资料与知识来回答现在的天气但天气是实时变化的如何才能做到真正的查询最新的天气呢接下来就轮到**Function Calling函数调用**出场了。2.4 Function CallingFunction Calling就是让模型具备调用工具的能力在日常对话中大模型通常只需返回文字答案。但当用户提出诸如“帮我查一下明天北京的天气”这类超出模型内置知识范围的问题时就需要借助 Function Calling即让 AI 调用外部工具来完成任务。Function Calling 的核心作用在于让模型具备以下能力判断当前问题是否需要使用工具自动提取参数并以结构化 JSON 形式生成调用指令将调用交由程序执行并接收返回结果用于后续生成回复。举个栗子“我明天要去杭州旅游请帮我查天气”传统的LLM对不起我只能提供截至2025年10月的信息。支持RAG的模型明天北京24℃小雨。它查了资料但没动手支持Function Calling的模型它判断你这个请求需要调用一个叫获取天气的函数然后自动生成参数“city杭州”调用完天气API - 拿到结果 - 生成回复“明天杭州24℃小雨建议带伞”。本质上大模型通过自然语言理解用户意图要完成什么任务、需要哪些信息。它会自动从对话中提取出关键参数。随后用户的程序可根据这些参数调用对应的函数完成任务并将执行结果返回给模型由模型生成最终回复。因此Function Calling是AI走向智能体的关键。完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】三、智能体Agent接下来我们来说一说传说中的“人工智能——智能体Agent。前面咱们说了Function Calling让模型拥有了“动手能力”。但是你会发现现实世界的任务往往不是一句话、调一次函数就能搞定的。比如说你问它我十一想自驾从上海去深圳旅游帮我规划下出行方案。一个聪明的AI应该怎么做理想流程可能是这样的查深圳十一当天的天气看是否适合出行查从上海到深圳的高速路况查加油站分布和服务区情况安排中途住宿综合输出一份旅游行程建议可以理解成它会思考、规划、决策、执行真正具备了“完成任务”的闭环能力。通过一张Agent流程图展示如下并且这整个流程可以重复多轮直到目标完成。以“十一从上海自驾去深圳旅游为例”它可能经历这样的Agent执行链查询天气→如果有雨提醒注意安全查询路线→如果太远中途加一站住宿住宿安排→查附近酒店并给出建议最终输出一个可执行的旅游计划这就是Agent的特性不是你一步步告诉它怎么干而是它自己规划该怎么干直接给你最终的规划和结果。但是各家厂商大力发展Agent的同时各自有各自的标准当Agent越来越多调用的工具越来越多、系统越来越复杂的时候如何让模型可以按照统一的标准低成本地接入更多工具呢答案就是MCP协议四、MCP4.1 什么是 MCPMCP模型上下文协议Model Context Protocol简称MCP是一个由Anthropic在2024年11月25日开源的一个开放的、通用的、有共识的协议标准。Anthropic公司是由前OpenAI核心人员成立的人工智能公司其发布的Claude系列模型是为数较少的可以和GPT系列抗衡的模型。4.2 为什么需要MCPMCP协议旨在解决大型语言模型LLM与外部数据源、工具间的集成难题被比喻为“AI应用的USB - C接口”。类比来看不同的AI助手就像不同的电子设备以前每个设备需要不同的数据线连不同的外设比如老式手机数据线各不相同而MCP提供了一个统一的细窄接口让AI能够即插即用各种外设。例如通过MCP一个AI助手今天可以连U盘数据库明天插打印机邮件系统后天接显示器报告生成——接口都一样只是功能不同。就像USB-C让我们少了无数转换头和线缆MCP也让AI集成少了无数专有API和脚本。对于终端用户来说这意味着AI助手将变得更加多才多艺且使用方便因为背后复杂的连接都被这个看不见的USB-C标准屏蔽掉了。在 MCP 协议没有推出之前智能体开发平台需要单独的插件配置和插件执行模型以屏蔽不通工具之间的协议差异提供统一的接口给 Agent 使用开发者如果要增加自定义的工具需要按照平台规定的 http 协议实现工具。并且不同的平台之间的协议可能不同M×N 问题”每新增一个工具或模型需重新开发全套接口导致开发成本激增、系统脆弱功能割裂AI 模型无法跨工具协作如同时操作 Excel 和数据库用户需手动切换平台。没有标准整个行业生态很难有大的发展所以 MCP 作为一种标准的出现是 AI 发展的必然需求。总结MCP 如何重塑 AI 范式4.3 MCP的核心原理和技术架构4.3.1 核心架构MCP采用客户端-服务器的分布式架构它将 LLM 与资源之间的通信划分为三个主要部分客户端、服务器和资源。客户端负责发送请求给 MCP 服务器服务器则将这些请求转发给相应的资源。这种分层的设计使得 MCP 协议能够更好地控制访问权限确保只有经过授权的用户才能访问特定的资源。官方架构图如下MCP Host主机应用Hosts 是指 LLM 启动连接的应用程序像Cursor、Claude、Desktop、Cline 这样的应用程序。MCP Client客户端客户端是用来在 Hosts 应用程序内维护与 Server 之间 1:1 连接。一个主机应用中可以运行多个MCP客户端从而同时连接多个不同的服务器。MCP Server服务器独立运行的轻量程序通过标准化的协议为客户端提供上下文、工具和提示是MCP服务的核心。本地数据源本地的文件、数据库和 API。远程服务外部的文件、数据库和 API。这种架构下AI主机通过MCP客户端同时连接多个MCP服务器每个服务器各司其职提供对一种数据源或应用的标准化接入。这样设计有几个好处一是模块化增加或移除某个数据源只需启用或停用对应的服务器不影响AI主体或其他部分二是解耦AI模型与具体数据源实现隔离开通过协议交互不直接依赖数据源的内部细节三是双向通信不仅AI可以请求数据源某些情况下数据源也能要求AI执行操作或生成内容从而支持更复杂的交互流程。4.3.2 工作流程初始化连接客户端向服务器发送连接请求建立通信通道。发送请求客户端根据需求构建请求消息并发送给服务器。处理请求服务器接收到请求后解析请求内容执行相应的操作如查询数据库、读取文件等。返回结果服务器将处理结果封装成响应消息发送回客户端。断开连接任务完成后客户端可以主动关闭连接或等待服务器超时关闭。4.3.3 通信方式MCP定义了一套基于JSON-RPC 2.0的消息通信协议。核心特点如下传输灵活原生支持两种传输方式——进程管道的STDIO本地场景和SSEHTTP POST网络通信同时允许开发者自定义其他传输通道。消息透明采用纯JSON格式封装三种消息类型——请求带唯一ID、响应含结果/错误和通知无回复。每条消息包含方法名和参数类似函数调用直观表达执行操作/获取数据等行为。开发友好相比二进制协议如gRPCJSON消息可人工阅读配合结构化日志更易调试。协议层自动处理请求响应匹配、错误传递和并发管理开发者只需关注业务逻辑。关键机制 – “Primitives”原语概念MCP将AI与外部系统交互的内容抽象为几类原语以此规范客户端和服务器各自能提供的功能。MCP通讯模式STDIOStandard Input and Output是最基本的输入输出方式广泛应用于命令行工具、脚本编程以及本地调试过程中。它通过标准输入、输出和错误流来进行数据的传输。SSEServer - Sent Events是一种基于HTTP协议的数据流传输方式主要用在远程服务上Client使用SSE与Server进行通讯特别适合需要持续更新的实时场景。Streamable HTTP是一种基于HTTP协议的流式传输技术专门用于大文件如视频、音频的分段传输。与SSE不同Streamable HTTP允许文件在传输的同时被处理使客户端可以边接收数据边处理避免等待整个文件加载完成。MCP服务器可以提供三种原语Prompts提示预先编写的提示词或模板相当于一段指导性文字片段可以插入到模型的输入中去影响其行为。例如服务器可以提供一个代码审查提示模板供模型在阅读代码时使用。Resources资源结构化的数据或文档内容可供客户端读取并提供给模型作为上下文。例如从数据库查询到的一条记录、用户的笔记文档内容等都是资源类型。资源类似于只读文件模型可以请求某个资源服务器会返回相应的数据内容。Tools工具可以被模型调用的可执行操作或函数。这是MCP最强大也最具互动性的部分模型可以要求服务器执行某个工具函数来获取信息或改变外部状态比如调用发送邮件工具发送一封邮件调用查询天气工具获取天气数据等。由于工具调用可能带来副作用和安全风险MCP规定模型调用工具必须经由用户批准后才执行。换言之工具就像模型可用的按键但每次按键需要真人确认避免模型滥用外部操作权限。MCP客户端提供两种原语能力用于辅助服务器完成复杂任务Roots根这是一种由客户端提供的文件系统入口或句柄。服务器可以通过Root来访问客户端这侧的本地文件或目录内容。例如客户端可以授权服务器读取某个文件夹作为Root那么服务器就能代表模型浏览那个文件夹下的文件内容通常仍以资源形式提供给模型。Roots机制确保服务器只能访问经授权的本地数据范围增强安全性。Sampling采样这一机制允许服务器向客户端发起请求要求客户端这侧的LLM模型生成一段文本即一次补全/推理。简单说服务器也可以反过来调用模型让模型基于一些额外提示执行推理。Sampling可以用于构建多轮交互的智能Agent服务器在执行某工具过程中发现需要模型进一步推理决定下一步时就可以用Sampling请求模型产出结果再继续后续操作。不过Anthropic也强调应谨慎使用这一机制始终保持人类在环监督以避免AI代理失控循环调用模型。Sampling机制并非所有MCP服务器均支持需依赖客户端实现。通过上述原语分类MCP清晰地定义了模型与外部交互的意图类型。例如让模型获取一段参考资料应该作为Resource提供而不是混同于调用Tool又如要求模型执行某操作就用Tool明确表示。这样的设计使AI系统的上下文管理更结构化模型知道某段信息是只读资料还是可执行操作用户也能对不同类型请求进行针对性地审批或监控。这比起简单地给模型一个隐式工具插件要透明得多。Anthropic的开发者指出他们最初也考虑过是否把所有交互都当作工具调用统一处理但最终认为Prompt和Resource这两类原语有其独特意义能表达不同用途的功能因此保留了多元的原语概念。4.3.4 MCP现状及问题问题1MCP服务的配置开关通常需要手动操作使用方式还不够智能如果开启大量的MCP服务客户端如果第一次将所有工具信息都发给大模型让大模型来抉择会浪费大量Tokens。问题2MCP只是解决了协议的问题工具的稳定性很重要调用工具时服务不可用非常影响用户体验。应该有个工具可用性检测机制不可用及时下线。问题3现在MCP服务的封装主流还是前端框架和PythonJava来封装MCP似乎不太方便或者说上手门槛略高。最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念通过动态追踪大模型开发、数据标注伦理等前沿技术趋势构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能 突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**