2026/3/14 19:40:50
网站建设
项目流程
宠物网站建设策划方案,ui设计师为什么干不长久呢,做网站图片存储用什么格式,wordpress页面关联目录#x1f449;目录
1 LLM (大语言模型)
2 Transformer (自注意力机制)
3 Prompt (提示词)
4 理解API
5 Function Calling (函数调用)
6 Agent (智能体)
7 MCP (模型上下文协议)
8 A2A (Agent通信协议)
9 未来假想
本文尽量用最简单的方式, 帮读者理解 LLM, Transform…目录1 LLM (大语言模型)2 Transformer (自注意力机制)3 Prompt (提示词)4 理解API5 Function Calling (函数调用)6 Agent (智能体)7 MCP (模型上下文协议)8 A2A (Agent通信协议)9 未来假想本文尽量用最简单的方式, 帮读者理解 LLM, Transformer, Prompt, Function calling, MCP, Agent, A2A 等这些基本概念。表述时不追求绝对准确, 尽量通俗易懂。部分内容有个人理解的成份, 内容难免疏漏, 欢迎指正。注意: 本文需要你有基本的代码阅读能力。当然非开发阅读也不会很困难。01LLM (大语言模型)本质就是文字接龙。把问题当成输入把大模型当成函数把回答当成输出。大模型回答问题的过程就是一个循环执行函数的过程。另外有必要了解一下AI技术爆发于2023年ChatGPT经过了几次迭代才崭露头角。Transformer架构。参数爆发增长。人工干预奖励模型。思考题: 语言能代表智能吗?02Transformer (自注意力机制)自注意力机制就是动态关联上下文的能力。如何实现的呢每个分词就是一个 token每个token 都有一个 Q, K, V 向量 (参数)Q 是查询向量K 是线索向量V 是答案向量推理的过程:当前token 的Q 与 前面所有的 K 计算权重每个 token 的V加权相加得到一个 token预测值选择 N 个与预测值最接近的 token, 掷骰子选择最简化示例: 小明吃完冰淇淋结果 肚子疼。首先分词及每个token的 Q, K, V向量。tokenQ查询K键V值语义解释小明[0.2, 0.3][0.5, -0.1][0.1, 0.4]人物主体吃完[-0.4, 0.6][0.3, 0.8][-0.2, 0.5]动作吃完冰淇淋[0.7, -0.5][-0.6, 0.9][0.9, -0.3]食物冷饮可能致腹泻结果[0.8, 0.2][0.2, -0.7][0.4, 0.1]结果需关联原因接着开始推理:1. 使用最后一个 token 的 Q“结果”的 Q 向量Q_current [0.8, 0.2]2. 计算 Q_current 与所有 K 的点积相似度点积公式Q·K q₁*k₁ q₂*k₂TokenK向量点积计算结果小明[0.5, -0.1]0.8 * 0.5 0.2*(-0.1) 0.4 - 0.020.38吃完[0.3, 0.8]0.8 * 0.3 0.2 * 0.8 0.24 0.160.4冰淇淋[-0.6, 0.9]0.8*(-0.6) 0.2 * 0.9 -0.48 0.18-0.3结果[0.2, -0.7]0.8 * 0.2 0.2*(-0.7) 0.16 - 0.140.023. Softmax 归一化得到注意力权重将点积结果输入 Softmax 函数Token点积指数值e^x权重小明0.38e^0.38 ≈ 1.461.46 / 2.74 ≈ 0.53吃完0.4e^0.40 ≈ 1.491.49 / 2.74 ≈ 0.54冰淇淋-0.3e^-0.30 ≈ 0.740.74 / 2.74 ≈ 0.27结果0.02e^0.02 ≈ 1.021.02 / 2.74 ≈ 0.37加权求和 V 向量生成上下文向量将权重与对应 V 向量相乘后相加Token权重V向量加权 V 向量小明0.53[0.1, 0.4]0.53*[0.1, 0.4] ≈ [0.053, 0.212]吃完0.54[-0.2, 0.5]0.54*[-0.2, 0.5] ≈ [-0.108, 0.27]冰淇淋0.27[0.9, -0.3]0.27*[0.9, -0.3] ≈ [0.243, -0.081]结果0.37[0.4, 0.1]0.37*[0.4, 0.1] ≈ [0.148, 0.037]最终上下文向量[0.053−0.1080.2430.148,0.2120.27−0.0810.037][0.336,0.438]预测下一个 token模型将上下文向量 [0.336, 0.438] 与候选 token 的嵌入向量对比嵌入向量不作过多解释, 只要知道QKV三个向量可从嵌入向量计算得到即可候选词嵌入向量相似度点积概率肚子疼[0.3, 0.5]0.336 * 0.3 0.438 * 0.5 ≈ 0.101 0.219 0.320最大概率例如 65%头疼[0.2, 0.1]0.336 * 0.2 0.438 * 0.1 ≈ 0.067 0.044 0.111次之例如 20%开心[-0.5, 0.8]0.336*(-0.5) 0.438 * 0.8 ≈ -0.168 0.350 0.182较低例如 15%最终模型选择最高概率的 “肚子疼” 作为下一个 token。注意在实际场景中预测的下一个token是不确定的是因为有一个掷骰子的操作大模型会在概率最大的几个token中随机挑选一个作为最终输出。03Prompt (提示词)对于这个词大家并不陌生。我们用chatGPT时经常会用到 “你是一个…”但你真的理解它吗与ai对话时的这种预设角色其实并不是严格意义上的 prompt。为什么这么说呢先看一下API。04理解API我们前面提到过大语言模型的 本质就是文字接龙相对应的使用大模型也比较简单。可以参见deepseek的文字接龙 api 请求https://api-docs.deepseek.com/zh-cn/api/create-chat-completion这里比较重要的几个部分需要理解:temperature 温度Temperature温度 是一个控制生成文本随机性和多样性的关键参数。它通过调整模型输出的概率分布直接影响生成内容的“保守”或“冒险”程度。看几个典型场景:场景温度代码生成/数学解题0数据抽取/分析1通用对话1.3翻译1.3创意类写作/诗歌创作1.5tools 工具支持大模型对 function calling 的支持后面再详细介绍。角色和信息这一部分是ai对话的主体。其中role 定义了四个角色。system 系统设定。user 用户回复。assistant 模型回答。tool 是配合function call工作的角色可以调用外部工具。回到前一章的问题ai对话时其实是user部分输入的内容所以system角色的设定内容才应该是严格意义上的Prompt。这有啥区别呢? (user 与 system?)个人一个合理的猜测: system的内容在Transformer推理中拥有较高的权重。所以拥有较高的响应优先级。关于多轮对话因为LLM是无状态的。我们要时刻记得文字接龙的游戏因此在实际操作中也是这样的。在第一轮请求时传递给 API 的 messages 为。大模型回答。当用户发起第二轮问题时请求变成了这样05Function Calling (函数调用)仅仅一个可以回答问题的机器人作用并不太大。要完成复杂的任务就需要大模型的输出是稳定的而且是可编程的。因此OpenAI 推出了 function calling的支持。也就是前面提到的 tools参数相关内容。基本流程工具声明及用户输入模型检测到需要使用工具返回相关工具参数开发者根据方法名和参数调用相关工具方法将工具方法的返回值附加到请求中再次请求大模型得出最终结果The current temperature in Paris is 14°C (57.2°F).总结一下实现原理(猜测)a. 实现方式一: prompt 遵循 (示例)提前设置规则:b. 实现方式二: 模型训练特定优化对结构化输出有特定要求可能需要特定训练吧。这个不太确定?06Agent (智能体)包含: 大模型任务规划上下文记忆工具调用。它是大模型能力的拓展。其实只要对API进行简单的封装只要能完成特定任务都可以称为智能体。比如下面的例子:创建AI客服系统这个智能体主要包括:配置了一个 prompt: “你是一个电商客服可查询订单状态”引入 query_order 工具其它创建方式服务商开放接口供用户创建比如腾讯元器https://yuanqi.tencent.com/my-creation/agent一个简单的提示词都可以创建智能体07MCP (模型上下文协议)通过上面的智能体调用工具的示例我们可以看到每接入一个工具都需要编写相应的接入代码。经常写代码的我们都知道这不是好的架构设计。 好的设计应该把动态改变的部分 ( tools的声名和调用分离出来 )做为一个独立的模块来拓展。这就有了大众追捧的 MCP: -----(哪有这么玄都是程序员的常规操作啊…)MCP是工具接入的标准化协议https://modelcontextprotocol.io/introduction遵循这套协议可以实现工具与Agent的解耦。你的Agent 接入MCP协议的client sdk后。接入工具不再需要编写工具调用代码只需要注册 MCP Server就可以了。而MCP Server可由各个服务商独立提供。MCP Server做什么呢?声明提供的能力 ListTools。调用能力的方式 CallTool。来看一下MCP Server的部分代码 (红框中就是做上面两个事不难理解) :08A2A (Agent通信协议)A2A本质是对 MCP协议的拓展按字面意思就是 Agent to Agent. 有兴趣的自己详细看吧。智能体与智能体之间通信的标准化协议https://github.com/google/A2A?tabreadme-ov-file#agent2agent-a2a-protocol在这套协议下一个智能体要引入其它的智能体的能力也变得可插拔了。09未来假想如同蒸汽机电计算机这些伟大的技术一样。AI会成为下一个彻底改变人类生活工作方式的新技术。现在AI编程能力越来越强程序员是不是要失业了?职业不会消失消失的只有人。但是AI编程的确会重塑整个行业。我预想几年后纯粹的业务代码工程师可能会消失。而会增加更多的AI编程工程师。AI编程工程师的职责是解决AI模糊性的问题。而工具的引入就是增加确定性的手段。我们程序员可以把自己的积累通过 mcp server的方式挂载到项目agent 上去。这样我们就可以解放双手去解决更多有挑战性的问题。当前我们有哪些工作可以由AI来处理?理论上一切重复性的工作都可以交由AI完成。保险起见创造性的工作暂时可以只作为参考。日常的反馈分析。团队知识库。个人知识库。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】