2026/3/2 13:16:11
网站建设
项目流程
微网站备案,国际军事新闻在哪看,徐州seo推广优化,wordpress慢6文章介绍了LLM Agent的核心构成组件及其工作原理。LLM Agent通过记忆模块#xff08;短期记忆和长期记忆#xff09;、工具调用能力和规划策略来突破传统LLM的局限#xff0c;能够更自主地完成复杂任务。文章详细探讨了记忆系统的实现方式、工具调用的技术#xff08;如Too…文章介绍了LLM Agent的核心构成组件及其工作原理。LLM Agent通过记忆模块短期记忆和长期记忆、工具调用能力和规划策略来突破传统LLM的局限能够更自主地完成复杂任务。文章详细探讨了记忆系统的实现方式、工具调用的技术如Toolformer和MCP协议以及规划能力的培养方法如ReAct和Reflexion。此外还介绍了多智能体协作框架展示了多个专门化的LLM Agent如何通过协作进一步提升系统解决复杂问题的能力。1、什么是 LLM Agent要理解什么是 LLM Agent首先我们需要回顾一下 LLM 的基本功能。传统上LLM 的工作方式是通过预测下一个词元token实现的。在生成多个词元的过程中模型逐步扩展输入内容从而模拟对话生成更长且更连贯的回应。然而随着对话的进行LLM 的一个主要缺点逐渐显现——它无法记住之前的对话内容除了记忆缺失的问题外LLM 在执行一些看似简单的常见任务时也经常犯错。例如基础的数学运算如乘法和除法都可能出错。然而这并不意味着 LLM 无法胜任这些任务。我们可以通过引入外部工具、记忆模块以及检索系统来增强其能力。Anthropic 将这种增强后的模型称为增强型 LLMAugmented LLM。在遇到数学问题时增强型 LLM 可以智能地识别问题类型选择使用合适的工具例如计算器进行精确计算从而避免了之前常见的计算错误。那么增强型 LLM 是否可以被视为一个智能体Agent呢虽然它不完全符合传统定义中的智能体标准但从某些角度看它确实拥有一些类似智能体的特性。这里引用 Russell 和 Norvig 在《AI: A Modern Approach》一书中对智能体的定义智能体是能够通过传感器感知环境并通过执行器对环境进行行动的实体。Russell Norvig, AI: A Modern Approach (2016)根据这个定义智能体与环境的互动通常包含以下几个重要部分Environment环境智能体所处并与之交互的世界。Sensors传感器智能体用来感知环境的设备。Actuators执行器智能体用来作用于环境的工具。Effectors效应器智能体的大脑根据感知做出决策并采取相应行动。这个框架适用于各种形式的智能体不论是具备物理传感器与现实世界互动的机器人还是在软件环境中运行的 AI 智能体。我们可以对这一框架进行适度扩展从而让增强型 LLM 完全满足智能体的特征进而形成 LLM Agent。具体而言LLM Agent 通过文本形式获取环境信息完成感知过程并通过使用工具例如执行网页搜索对环境进行操作。为了决定下一步的行动LLM Agent 通常还需要一个关键模块规划能力。为了获得规划能力LLM Agent 通常会采用推理和思考的方法例如链式思维Chain-of-Thought等技术。通过推理和思考过程LLM Agent 可以制定出下一步行动计划。凭借规划能力LLM Agent 能够理解当前情况进而制定行动方案利用工具执行任务并通过记忆模块记录已执行的操作。根据系统设计的不同LLM Agent 的自主性可能有所不同。通常LLM Agent 自主决策的范围越广越符合智能体的定义。接下来本文将围绕 LLM Agent 的三个关键部分——记忆、工具和规划逐一介绍如何使 LLM 实现自主行为。2、 记忆传统 LLM 本身是没有记忆的系统在与其交互的过程中模型并不会主动记住先前发生的事情。举个例子当你问传统 LLM 一个问题然后紧接着又问了第二个问题它通常并不会记得第一个问题的内容。我们通常把只能记住当前对话上下文的能力称为短期记忆也叫工作记忆。短期记忆相当于一个缓冲区用来暂存最近的对话内容包括 LLM Agent 刚刚执行过的操作等。但这种有限的记忆容量很快就会成为瓶颈因为 LLM Agent 往往需要跟踪记录的不仅是最近的内容可能是几十个操作或环节的上下文。这时就凸显出长期记忆的重要性。因为 LLM Agent 在复杂任务中可能需要执行数十甚至上百个连续步骤这些累积的信息和经验都需要被有效地保存和利用。下面我们来探讨几种让 LLM Agent 拥有记忆的方法。2.1 短期记忆为 LLM Agent 提供短期记忆最直接的方法就是利用模型的上下文窗口context window也就是 LLM 能处理的最大文本长度。如今大多数 LLM 的上下文窗口至少有 8192 个词元token有的甚至可以扩展到几十万个词元我们可以利用这么大的上下文窗口在提示中附加上完整的对话历史从而让模型记住之前说过的话。只要对话历史没有超出 LLM 的上下文窗口这种方法就能很好地运行可以视作模拟记忆的一种简单方式。不过需要注意这并非真正让 LLM 学会了记忆而是一种伪记忆机制。本质上我们只是每次在对话中重新告诉 LLM 之前都说了什么模型本身并没有真正将对话内容进行存储。当遇到 LLM 上下文窗口有限或者对话历史过长无法全部容纳的情况时我们需要采用更加巧妙的策略。一种有效的解决方案是使用另一个 LLM 来总结目前为止的对话内容。通过不断对对话进行摘要压缩我们可以将需要提供给 LLM 的文本长度保持在窗口大小之内。这种方式既减少了需要传递的词元数量又能够保留对话中最重要的信息。2.2 长期记忆LLM Agent 的长期记忆指的是需要长时间保留的过去交互和行动信息。一个常见的做法是将所有先前的交互、操作和对话内容存储在一个外部的向量数据库中。具体来说我们会将对话内容转换成能够表示其含义的数值向量embedding并存入数据库。然后当有新的输入时我们也把这个提示转换成向量与数据库中的向量逐一比较检索出最相关的内容提供给模型。这种方法通常被称为“检索增强生成”Retrieval-Augmented Generation简称 RAG。长期记忆不仅限于当前对话的上下文还涉及跨会话的信息保留。例如LLM Agent 可能需要记住在某些独立会话中所做的研究或收集到的知识。为了有效地管理这些信息LLM Agent 可以将不同类型的信息存储在不同的记忆模块中。在心理学中记忆通常被划分为多个类别针对 LLM Agent 的设计我们可以借鉴这些分类。尤其在《Cognitive Architectures for Language Agents》的研究中作者提出了四种主要的记忆类型并将这些概念嫁接到了 LLM Agent 的架构中。这种分类方法有助于我们更加系统地设计智能体的记忆功能。工作记忆Working Memory工作记忆是用于存储当前会话中的信息包含了最近的对话内容以及 LLM Agent 刚刚执行的操作等。它类似于一个缓冲区用来处理和操作眼前的任务。工作记忆的容量较小通常只保留当前最相关的信息。程序性记忆Procedural Memory程序性记忆是存储智能体在过去会话中学到的技能、方法或操作策略。例如如果 LLM Agent 学会了如何使用某个工具或解决某类问题这些知识就会存储在程序性记忆中。这种记忆帮助智能体更有效地完成任务并提升处理效率。语义记忆Semantic Memory语义记忆用于存储世界知识的事实和概念。它包含了智能体对外部世界的理解例如历史事实、科学知识、语言规则等。这些信息通常不会随着时间的推移而改变适合长期存储。情景记忆Episodic Memory情景记忆是存储具体事件或对话历史的记忆类似于人类的生活经历。它包含了某一时刻或特定情境下的具体细节。例如智能体可能会记得某次与用户的对话或某个特定任务的处理过程甚至是用户的偏好和行为模式。这种记忆有助于智能体在未来的交互中做出更加个性化的响应。通过这种记忆类型的划分LLM Agent 能够在多个层次上管理和处理信息从而实现更加智能和高效的工作方式。3、 工具工具允许 LLM Agent 与外部环境进行交互比如查询数据库或者使用外部的应用程序比如执行一段自定义代码。一般来说工具的用途大致可以分为两类其一是获取数据以便检索最新的知识信息其二是执行操作例如帮我们创建日程或在网上订外卖。但让 LLM 真正掌握工具使用并非易事关键在于要让它生成符合特定工具 API 要求的精确文本输出。在实际应用中我们通常希望 LLM 的输出是结构化的 JSON 字符串这样我们就能方便地将其传递给代码解释器执行。当然JSON 并不是唯一的选择。除此之外我们也可以让 LLM 直接生成调用工具的代码或者为模型预先定义好一些函数供其调用比如一个简单的乘法计算函数。这种让模型直接调用预定义函数的做法通常被称为函数调用Function Calling功能。实际上目前的大多数 LLM如果给予充分且适当的提示大体上都能学会使用各种各样的工具。与此同时还有一种更加根本性的提升策略那就是直接对 LLM 进行微调训练让工具使用能力真正内化到模型的参数中关于微调如何改进 LLM 的工具使用能力稍后还会详细探讨。在一些固定流程的 LLM Agent 框架中我们会预先规定调用工具的顺序。不过更有意思的是让 LLM Agent 拥有完全的自主决策权自己判断何时该用哪个工具。在这种自主决策模式下LLM Agent 的工作方式变得更加灵活。它会连续执行一系列操作每一步都由自己来决定采取什么动作、使用什么工具甚至是否需要调整之前的策略。换句话说每个中间步骤的输出又会被反馈给 LLM作为下一步的输入周而复始地继续处理下去。为了进一步增强 LLM Agent 对工具的使用能力研究者从两个方向展开了探索一类研究专注于提升模型本身调用工具的智能性比如如何让模型自主决定调用时机、构造合理请求等另一类则聚焦于改进工具的接入方式和调用体验从系统架构层面为 LLM 提供更友好的工具使用环境。接下来本文就分别介绍这两类代表性工作第一类代表是 Toolformer它通过训练机制让 LLM 学会调用工具第二类则是模型上下文协议MCP它通过标准化机制让工具更易于被 LLM 使用。3.1 Toolformer让 LLM 学会使用工具无疑是一种革命性的能力提升手段它不仅可以显著增强 LLM 的实用性还能有效弥补模型在特定领域的天然短板。这一巨大的潜力引起了学术界的广泛关注近几年来关于 LLM 工具使用与学习的研究呈现出井喷态势。许多研究不仅探索了如何通过提示词促使 LLM 使用工具还进一步研究了如何训练模型更好地使用工具。其中较早引人注目的一项技术叫做 Toolformer。它训练 LLM 学会决定应该调用哪些 API以及如何调用。Toolformer 的实现思路是利用特殊的标记来指示何时调用工具以及何时结束调用。举例来说当输入问题“5 乘以 3 等于多少”时模型会开始生成回答一直生成到出现一个“[”符号——这个符号表示模型决定去调用某个工具。随后模型继续输出直到出现“→”符号这表示 LLM 暂停自身的生成过程准备等待工具返回结果。接着所需的工具被实际调用其输出结果会被插入到模型已生成的内容中。最后当模型的输出中出现了“]”符号时就意味着工具调用部分结束LLM 可以继续生成剩余的回答内容。为了让模型学会这种工具使用方式Toolformer 精心构建了一个含有大量工具使用示例的数据集。具体做法是针对每种工具研究者先手动设计一些 few-shot 提示例子让模型生成带有调用该工具的输出然后根据工具使用是否正确、得到的结果是否正确以及模型损失是否降低等标准对这些输出进行筛选。经过筛选后留下的示例就构成了训练数据用来训练 LLM 遵循上述的工具调用格式。自从 Toolformer 发布以来陆续出现了许多有趣的方法。例如有的研究让大型语言模型能够调用上千种工具称为 ToolLLM还有的模型能够高效检索最相关的工具如 Gorilla 模型。到 2025 年初大多数主流大型语言模型都已经具备调用各类工具的能力。3.2 模型上下文协议MCP在智能体框架中工具调用是让 LLM 与外界交互的重要途径。然而当系统中有大量不同的工具时让 LLM 使用它们会变得相当麻烦因为我们需要为每个工具都做很多手动配置手动集成需要人工登记、跟踪每个工具并将其提供给 LLM 使用手动描述需要人工编写每个工具的说明包括期望接受的 JSON 格式或调用方法手动维护一旦工具的 API 发生变化就需要手动更新上述所有信息为了解决这些问题Anthropic 开发了模型上下文协议Model Context ProtocolMCP。MCP 将常用服务例如天气查询、GitHub 等的 API 接入方式进行了标准化。MCP 由以下三个部分组成MCP 主机MCP Host负责管理 MCP 连接的应用例如代码编辑器 CursorMCP 客户端MCP Client与 MCP 服务器保持一对一连接的组件MCP 服务器MCP Server为 LLM 提供上下文、工具和能力支持的服务器举个例子假设你希望某个支持 MCP 的 LLM 应用帮你总结一下 Github 代码库中最新的 5 次提交记录。首先MCP 主机加上客户端会询问 MCP 服务器看看有哪些可用的工具比如访问 GitHub 仓库的接口。LLM 获得这些可用工具的信息后可能会决定调用其中一个工具。于是它通过主机发送请求给 MCP 服务器请求使用该工具并获取结果。MCP 服务器执行相应操作后把结果返回给 LLM。最后LLM 收到结果整理后生成回答给用户。通过引入 MCP 这一框架让创建和使用工具变得更加容易。你可以开发一个与某服务交互的 MCP 服务器例如用于访问 GitHub 的接口那么任何支持 MCP 协议的 LLM 应用程序都可以连上这个服务器并使用该功能。换句话说开发一次处处可用。4、规划通过调用工具LLM 确实能够显著扩展自身的能力范围。然而拥有工具只是第一步更关键的问题是在一个智能体系统中LLM 如何智能地决定何时该用哪个工具又该按照什么顺序采取哪些步骤呢这就需要引入一个至关重要的能力——规划能力。简单来说规划就是让 LLM 能够将复杂的任务拆解成一系列逻辑清晰、可执行的步骤。更进一步有了规划能力的加持模型就能够像人类一样迭代地反思先前的行为表现并在发现问题或遇到新情况时灵活调整当前的计划。那么如何让 LLM 智能体具备这种强大的规划能力呢答案是我们需要从最根本的地方入手培养它的推理能力。毕竟没有扎实的推理基础就无法进行有效的规划。4.1 推理能力要让 LLM 规划出行动步骤离不开复杂的推理过程。因此在正式规划任务之前LLM 必须具备一定的“先思考一下”的能力。这里所说的推理或思考比较宽泛我们可以讨论这种过程到底算不算真正的人类式思考还是仅仅把答案分解为结构化的步骤。不过无论如何我们需要想办法让模型表现出这种推理行为。总的来说我们可以通过两条截然不同的路径来赋予模型推理能力第一种是“深层改造”——对 LLM 进行微调训练从根本上让模型学会在回答前先进行推理第二种是“外在引导”——保持模型参数不变通过巧妙的提示词工程来引导模型展现推理行为。对于利用提示工程的方法我们可以在提示中加入一些推理过程的示例来供 LLM 模仿。提供示例这也叫少样本提示few-shot prompting是引导 LLM 行为的极佳手段之一。比如我们可以给模型一个带有逐步推理过程的示范让它按照类似的思路作答。通过这种方式提供思考步骤示例的方法被称为“链式思维”可以激发模型表现出更复杂的推理过程。即使不提供示例即零样本提示zero-shot prompting仅仅在提示里加上一句“让我们一步步地思考”也往往能触发模型进入链式思维的模式。在训练模型时我们也可以通过构造包含推理过程的海量数据来提升模型的推理能力或者在强化学习设置中通过奖励机制让 LLM 自己摸索出思考的方法。举例来说DeepSeek-R1 模型就利用奖励信号来引导模型在回答问题时采用多步推理的过程。4.2 推理与行动ReAct赋予 LLM 推理能力很重要但仅有推理还不足以让它规划出实际可执行的行动步骤。我们前面介绍的技术要么是专注于推理过程要么是专注于通过工具与环境交互。然而我们需要的是让模型既能思考又能行动。最早将思考和行动结合起来的技术之一叫做 ReActReason Act。ReAct 通过精心设计的提示将推理和动作结合在一起。它在提示中规定了模型输出的三个步骤思考 (Thought)—— 针对当前情况进行推理分析行动 (Action)—— 决定要执行的操作例如调用某个工具观察 (Observation)—— 根据行动的结果进行观察并继续推理这个提示模板本身其实相当直观简单。LLM 按照该提示来约束自己的行为使其循环遵循“思考 - 行动 - 观察”的模式。LLM 会一直重复这一循环直到某一步的行动明确指示应该输出最终答案为止。通过在思考和观察之间不断交替LLM 可以规划接下来的行动步骤观察每一步的结果并据此调整后续计划。由此可见与预先写死固定步骤的简单流程相比这种框架让 LLM 表现出更加自主的智能体行为。4.3 反思机制Reflexion然而即便应用了 ReAct也没有哪一个智能体可以保证把每项任务都一次性完美完成。失败在所难免关键是我们要让 LLM 学会反思并从中改进。ReAct 框架中缺少的正是这一环而 Reflexion 技术正好填补了这个空白。Reflexion 是一种利用语言形式的自我强化来帮助智能体从失败中学习的方法。Reflexion 的方法假设引入由 LLM 扮演的三种角色执行者Actor根据观测到的状态选择并执行动作可以使用链式思维或 ReAct 等方法来产生动作评价者Evaluator对执行者产生的结果进行评估打分自我反思者Self-reflection对执行者的行为以及评价者给出的评分进行反思总结在此基础上Reflexion 还增加了记忆模块用于记录执行过的动作短期记忆和自我反思的内容长期记忆帮助智能体积累经验从错误中学习找到更好的解决方案。还有一种类似且巧妙的方法叫做 SELF-REFINE。在 SELF-REFINE 中同一个 LLM 会反复进行输出改进和自我反馈它先生成初始答案再对自己的答案进行评价反馈随后依据反馈改进答案如此循环。在这个过程中初始回答、改进后的回答以及反馈意见都是由同一个模型依次产出的。有意思的是无论是 Reflexion 还是 SELF-REFINE这种让模型自我反思的行为与强化学习的机制非常相似后者是通过根据结果质量给予奖励来不断优化策略的而这里 LLM 也是根据自身输出的质量不断地产生反馈并改进输出。5、 多智能体协作到目前为止我们探讨的都是单个智能体的架构设计和能力培养。然而正如俗话说的一个好汉三个帮”单智能体系统也不可避免地存在一些固有的局限性当可用工具数量过多时LLM 在选择时会陷入选择困难症随着任务复杂度的提升对话和记忆的上下文可能会变得极为庞大严重影响处理效率更重要的是有些复杂任务可能需要跨越多个不同领域的专业知识单个智能体很难做到面面俱到。面对这些挑战一个自然的解决方案就是引入多智能体框架。多智能体系统的核心思想是“术业有专攻”——让多个各自独立、各有所长的智能体通过协作和交互来共同完成复杂任务。多智能体系统通常由一些专业的智能体构成每个智能体都有自己特定的工具和能力范围并由一个中央监督者进行管理协调。监督者负责在智能体之间传递信息并根据需要将任务分派给合适的智能体。每个智能体可能配备了不同的工具、采用不同的记忆系统。实际上目前已经提出了许多多智能体架构但它们的核心通常都围绕两个方面智能体的初始化 —— 如何创建独立的智能体智能体的协调 —— 如何在多个智能体之间进行协调与通信下面我们来看看几种有意思的多智能体框架并重点了解它们如何实现上述两个核心要素。5.1 生成式智能体Generative Agents多智能体领域里有一篇极具影响力的论文名为《Generative Agents: Interactive Simulacra of Human Behavior》。在这项研究中作者构建了一系列智能体能够模拟出逼真的人类行为他们称之为生成式智能体Generative Agents。在这个系统中每个生成式智能体在初始化时都会被赋予详细的人物设定这使得不同的智能体表现出独一无二的行为特点也让整个模拟环境中的交互更加有趣和生动。每个智能体启动时都具备三个核心模块记忆、规划和反思——这和之前在 ReAct 与 Reflexion 框架中看到的核心部分非常相似。在该框架中记忆模块至关重要。它不仅存储了智能体规划和反思过程中的内容还记录了截至目前发生的所有事件。当智能体需要采取下一步行动或回答新的问题时系统会从其记忆库中检索相关内容并根据记忆的新近程度、重要性和相关性进行评分将得分最高的那些记忆提取出来提供给智能体参考。凭借这些机制这些生成式智能体能够自由地按照各自的人设与动机行动并彼此之间进行互动。值得一提的是在这个框架中并没有赋予智能体一个预定的共同目标因此整个系统几乎不需要专门的全局协调每个智能体都按照自身的角色和经验自主行动。这篇论文还有许多精彩的细节由于篇幅所限不便全部展开但这里想强调其中的评估指标。研究者主要以智能体行为的逼真度即行为是否让人感觉真实可信作为评价标准并由人类评审对智能体的表现进行打分。评估结果显示要让智能体的行为更加逼真可信感知、规划和反思这三个要素是缺一不可的——正如之前讨论的如果只有规划而缺乏反思智能体的行为是很难完善的。5.2 协作式多智能体框架无论采用哪种方法构建多智能体系统一般都需要考虑几个基本组成部分智能体的人设Profile、环境感知Percept、记忆(Memory)、规划(Planning)以及可用的行动集合(Action)等。AutoGen、MetaGPT、CAMEL 等都是当前很流行的多智能体框架。这些框架在实现上述组件方面各有千秋同时它们对智能体之间通信的处理方式也略有不同。以 CAMEL 框架为例在开始时由用户提出问题并设定两个 AI 角色——一个充当 AI 用户模拟提问的用户另一个充当 AI 助手提供解答。随后这对 AI 用户和 AI 助手就会以角色扮演的方式展开合作对问题进行讨论并逐步解决。在这个过程中AI 用户不断提出要求或线索而 AI 助手则据此作答两者来回交互携手推进任务的完成。通过这种机制智能体之间实现了协作式的沟通。AutoGen 和 MetaGPT 则采用了不同的通信与协作策略但归根结底它们都是为了让多个智能体可以互相交流从而在过程中不断更新对任务的理解、调整各自的目标以及规划下一步动作。值得一提的是在过去的一年里此类框架的发展突飞猛进。可以预见在 2025 年这些多智能体协作框架将继续快速成熟给我们带来许多令人振奋的进展如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】