网站制作过程流程文件注入网站
2026/3/14 15:56:55 网站建设 项目流程
网站制作过程流程,文件注入网站,虚拟主机加wordpress,保定网站建设公司排名文章深入探讨了上下文工程在AI代理中的核心作用#xff0c;随着代理执行复杂任务导致上下文窗口膨胀引发性能下降问题。介绍了卸载、精简、检索、隔离和缓存五大技术策略#xff0c;强调上下文工程是一种少即是多的哲学#xff0c;通过简化架构、信任模型而非过…文章深入探讨了上下文工程在AI代理中的核心作用随着代理执行复杂任务导致上下文窗口膨胀引发性能下降问题。介绍了卸载、精简、检索、隔离和缓存五大技术策略强调上下文工程是一种少即是多的哲学通过简化架构、信任模型而非过度工程化实现代理性能的最大飞跃。这些策略共同构成了现代AI代理架构的基石。核心论点是随着 AI Agents 执行日益复杂的长期任务其上下文窗口会因大量的工具调用而急剧膨胀导致性能下降。因此有效的上下文工程即通过 offloading卸载、reduction精简、retrieval检索、isolation隔离和 caching缓存等一系列技术将“恰到好处的信息”填入上下文窗口是构建高效、稳定和智能代理的决定性因素。最终结论强调优秀的上下文工程不仅是技术组合更是一种“少即是多”的哲学即通过简化架构、信任模型而非过度工程化才能实现代理性能的最大飞跃上下文工程的兴起为何它对 AI 代理至关重要在人工智能领域我们见证了一个重要的范式转变。随着 ChatGPT 的问世Prompt Engineering提示工程在 2022 年底应运而生成为与聊天模型交互的核心学科。然而进入 2023 年一个新的、更为关键的领域——Context Engineering上下文工程开始崭露头角与简单的聊天机器人不同AI Agents 的核心特征在于它们能够自主地、循环地调用一系列工具来完成复杂任务。这个过程带来了一个独特的挑战上下文的无界爆炸工作机制一个 Agent 通常绑定了一个或多个工具。每当 Agent 调用一个工具它会收到一个工具的观测结果这个结果会作为一个新的消息被追加到对话历史中规模问题根据 Manus 的实践经验一个典型的任务可能需要大约 50 次工具调用。而 Anthropic 的研究也指出生产环境中的代理可能会进行长达数百轮的对话性能悖论这种工具的自由使用导致了上下文信息的快速累积。然而正如 Chroma 团队在一份关于“上下文腐烂 (context rot)”的报告中指出的随着上下文长度的增加模型的性能会显著下降这就形成了一个核心矛盾Agents 的强大功能依赖于利用大量上下文信息但模型的性能却会因为上下文过长而受损正是为了解决这个挑战Context Engineering上下文工程的概念应运而生。Andrej Karpathy 将其精辟地定义为一门将恰到好处的信息在下一步需要时填入上下文窗口的精妙艺术与科学。它的目标是抑制在 Agents 运行过程中因工具调用而产生的上下文爆炸确保在任务的每一步Agent 都能接收到做出正确决策所需的核心信息不多也不少为了实现这一目标行业内涌现出了一系列共通的主题和策略构成了上下文工程的支柱1.Context Offloading (上下文卸载)将信息从核心的对话历史中移出存放到外部系统如文件系统只在上下文中保留一个轻量级的引用2.Reducing Context (上下文精简)通过总结或压缩来减少信息量例如修剪旧的工具调用记录3.Retrieving Context (上下文检索)在需要时按需从外部系统将信息取回。实现方式包括基于索引的语义搜索或更简单的基于文件系统的搜索工具如glob和grep4.Context Isolation (上下文隔离)通过将任务分解给多个子代理sub-agents每个子代理拥有自己独立的、更小的上下文窗口从而实现关注点分离和上下文管理5.Caching Context (上下文缓存)对上下文信息进行缓存以提高效率这一点在 Manus 的实践中被特别提及这些策略并非孤立存在而是相互关联、协同工作共同构成了现代 AI Agents 架构的基石战略抉择优先上下文工程而非过早模型专业化在深入探讨上下文工程的具体技术之前一个更根本的问题值得思考我们为什么需要它尤其是在模型微调和后训练技术日益普及的今天。Manus 的联合创始人 Peak Ji 分享了他从多年实践中得出的深刻见解认为上下文工程是应用层和模型层之间最清晰、最实用的边界在创办 Manus 之前Peak 拥有超过十年的自然语言处理经验他的上一个创业项目就是从零开始训练自己的语言模型。这段经历让他痛苦地认识到过早地构建专用模型会带来巨大风险扼杀创新速度产品的迭代速度完全被模型的迭代速度所限制。一个训练加评估的周期可能需要一到两周这对于需要快速验证产品市场契合度的初创公司是致命的优化目标错位在产品方向尚未完全明朗时团队可能会花费大量时间去提升一些对产品价值可能毫无意义的基准测试分数因此初创公司应该尽可能长时间地依赖通用模型和上下文工程。然而随着产品成熟和开源基础模型的崛起另一个陷阱也随之出现用自有数据微调一个强大的基础模型使其在特定用例上表现出色Peak 指出这同样是危险的因为强化学习通常需要固定一个行动空间并围绕当前的产品行为设计奖励函数。但这在 AI 和 Agents 的早期阶段是极其脆弱的因为底层技术可能一夜之间发生颠覆一个典型的例子**MCP的发布彻底改变了 Manus 的设计使其从一个紧凑、静态的行动空间转变为一个几乎无限可扩展的系统。如果你已经训练了自己的模型你会知道这种开放域问题极难优化避免重复造轮子虽然可以投入巨大努力进行后训练以确保模型的泛化能力但这无异于在尝试成为一家语言模型公司重复了基础模型公司已经完成的工作综上所述Peak 的核心观点是要坚定地划清界限。在当前阶段上下文工程为应用开发者提供了一个强大的杠杆可以在不触碰底层模型训练的情况下极大地影响和提升 Agent 的性能。它允许应用层保持灵活性和快速迭代的能力同时充分利用日益强大的通用模型。因此与其过早地投入到模型专业化的深渊不如精通上下文工程这门艺术上下文精简压缩与总结上下文精简是上下文工程的核心技术之一但它并非一个单一的操作。Manus 在实践中将其细分为两种截然不同但相辅相成的方法Compaction (压缩)和 Summarization (总结)并建立了一套严谨的工作流程来协同使用它们压缩 (Compaction)一种可逆的信息外化压缩的核心思想是一种可逆的信息缩减。它并非真正地“减少”信息而是将信息的一部分外化externalized到上下文窗口之外的某个地方如文件系统或外部状态同时在上下文中保留足以重建完整信息的线索工作原理在 Manus 中每一次工具调用和其结果都有两种格式完整格式和紧凑格式。紧凑版本会剥离掉所有可以从外部环境中重建的信息具体例子假设一个工具的功能是向文件中写入内容它可能包含两个字段path(路径) 和content(内容)。一旦这个工具执行成功我们就可以确定该文件已经存在于环境中。因此在紧凑格式中可以安全地丢弃可能非常长的content字段只保留path。如果 Agent 后续需要再次读取该文件它可以通过path轻松地检索到全部内容为何可逆性至关重要Agents 的决策是链式的基于之前的行动和观察。我们永远无法预知过去的哪个动作会在十步之后突然变得至关重要。可逆的压缩确保了没有任何信息被真正丢失只是被暂时移出了即时上下文总结 (Summarization)一种不可逆的谨慎精炼当仅靠压缩已无法将上下文大小控制在阈值以下时就需要动用更传统的总结方法。总结是不可逆的意味着信息会有损失因此必须非常谨慎地使用执行时机总结是最后的手段只有在多轮压缩后上下文长度仍然接近性能“腐烂”的临界点时才会触发操作前的准备在进行总结之前一个最佳实践是先将上下文中的关键部分卸载到文件中。在更激进的情况下甚至可以将整个待总结的上下文pre-summary context作为一个文本或日志文件转储到 file system 中。这样即使总结丢失了细节Agent 仍然有可能通过文件搜索如glob或grep来恢复原始信息总结的艺术在 QA 环节中Peak 补充了一个关键技巧来提升总结质量不要使用自由格式的提示。相反应该定义一个结构化的模式schema或表单让模型去填充字段例如“我修改了哪些文件”、“用户的目标是什么”、“我上次进行到哪一步”。这种结构化的输出比自由生成的文本更稳定、更可控也更容易保证关键信息不被遗漏一套基于阈值的工作流程为了让压缩和总结能够和谐共存Manus 设计了一套基于多层上下文长度阈值的自动化流程1.确定阈值硬性限制 模型支持的最大上下文长度例如 100 万 token预腐烂阈值模型性能开始显著下降的实际阈值。这需要通过大量评估来确定通常在 128K 到 200K token 之间。当模型开始出现重复、推理变慢、质量下降等“上下文腐烂”现象时就接近这个阈值了2.触发压缩当上下文大小接近“预腐烂阈值”时系统会首先触发压缩操作。这个操作不是全局性的而是有选择性的。例如可以只压缩历史记录中最旧的 50% 的工具调用同时保持最近的调用记录为完整格式。这样做的好处是模型仍然可以看到新鲜的、完整的工具使用范例few-shot examples从而避免模仿紧凑格式输出不完整的指令3.评估增益并触发总结压缩后系统会检查获得了多少空闲的上下文空间。如果在多轮压缩后每次的增益都变得微乎其微这意味着上下文即使在紧凑形态下也已非常庞大。此时系统才会触发总结操作4.执行总结进行总结时应使用未经压缩的完整版数据作为输入以确保总结的质量。同时与压缩类似始终保留最后几次的工具调用和结果为完整细节不进行总结。这能帮助模型清晰地知道它在哪个节点被打断从而更平滑地继续任务避免因总结导致的行为或风格突变通过这套精细的流程Manus 在最大化信息保留和控制上下文成本之间取得了微妙的平衡管理Agent复杂性上下文隔离的两种模式当任务变得异常复杂时单一 Agent 的上下文管理压力会变得巨大。此时将任务分解给多个子代理sub-agents的上下文隔离策略就显得尤为重要。Cognition AI 在他们的博客中曾警示过多代理设置的风险因为在它们之间同步信息可能成为一场噩梦。然而这并非一个新问题它与计算机科学早期多进程/多线程协调的挑战异曲同工Peak Ji 借鉴了 Go 语言社区的一句名言来阐释解决这个问题的两种核心模式Do not communicate by sharing memory; instead, share memory by communicating. (不要通过共享内存来通信相反通过通信来共享内存。)将这里的“内存 (memory)”类比为 AI Agents 的“上下文 (context)”我们可以得到两种截然不同的多代理协作模式模式一通过通信 (By Communicating)这是最经典、最直观的子代理设置。它适用于那些可以被清晰地分解和委派的任务。工作流程1.主代理main agent将一个任务封装成一个清晰、自包含的指令就像一个函数调用2.这个指令被发送给一个子代理3.子代理的上下文窗口是干净的几乎只包含来自主代理的这条指令。它在自己独立的上下文中完成任务4.子代理将最终结果返回给主代理适用场景当任务指令简短明确且主代理只关心最终产出不关心实现过程时这种模式是最佳选择例子在一个代码库中搜索特定的代码片段。主代理只需要告诉子代理“找到包含函数xyz的文件”它不关心子代理是用了grep还是其他方法只需要最终的文件路径和代码内容。Claude Code 的task工具就是这种模式的典型应用优点简单、隔离性好、上下文开销小模式二通过共享上下文 (By Sharing Context)与前一种模式相反这种模式适用于那些子任务严重依赖整体历史背景的复杂场景。工作流程1.子代理能够看到主代理完整的、之前的全部上下文历史包括所有的工具使用记录和观察结果2.但是这个子代理拥有自己独特的系统提示和行动空间 。它是在共享的背景知识上以一个新的“身份”或“能力集”来执行任务适用场景当任务的最终产出质量取决于对大量中间过程和发现的理解时共享上下文是更高效的选择例子进行一项深度研究deep research并撰写报告。最终的报告质量依赖于所有中间的搜索、笔记和分析。如果使用“通信”模式主代理需要将所有这些中间产物打包成文件再让子代理去读取和理解这会浪费大量的延迟和 token。而共享上下文模式则让子代理直接拥有完整的历史视图成本与权衡这种模式的成本更高预填充成本每个子代理都需要处理一个非常大的输入上下文这会消耗更多的输入 tokenKV 缓存失效由于每个子代理的系统提示和行动空间都不同无法复用之前的 KV 缓存这意味着每次切换到子代理都需要支付全额的计算成本在 QA 环节Peak 进一步阐述了 Manus 如何在实践中实现这两种模式尤其是 agent 间的通信共享沙箱作为媒介Manus 的每个会话都运行在一个独立的虚拟机沙箱中。主代理和子代理可以共享同一个沙箱。因此信息传递可以通过共享文件系统来完成主代理只需传递文件路径即可Schema 作为合约为了解决子代理输出格式不统一的问题Manus 采用了一种“合约”机制。当主代理要启动一个或多个子代理时它会首先定义一个输出模式 (output schema)。子代理则有一个特殊的工具叫做submit_result通过约束解码技术确保子代理提交回主代理的结果严格符合主代理预先定义的模式。这就像一个 MapReduce 操作最终会生成一个格式规整的“电子表格”通过这两种模式的灵活运用可以在保持任务隔离性的同时高效地处理不同依赖度的复杂协作任务。超越数据通过分层行动空间卸载工具上下文卸载Context Offloading通常被理解为将工作数据如文件内容、搜索结果移出上下文窗口。然而随着 Agent 系统变得越来越复杂尤其是在集成了像MCP这样的可扩展工具系统后一个新问题浮现了工具本身也成为了上下文的主要消耗者当上下文中存在过多的工具定义时会导致“上下文混淆 (context confusion)”模型可能会调用错误的工具甚至是根本不存在的工具。一个常见的解决方案是根据当前任务动态地对工具描述进行 RAG检索增强生成按需加载工具。但这种方法存在两个弊端1.破坏 KV 缓存工具定义通常位于上下文的开头。每次更换工具集都意味着 KV 缓存失效增加了计算成本2.误导模型即使某个工具被移除了模型在历史记录中仍然能看到对该工具的过往调用。这可能会误导模型去调用一个当前无效的工具或使用错误的参数为了解决这个问题Manus 创新性地设计了一种分层的行动空间 (Layered Action Space)。这种架构将 Agent 的能力分解为三个抽象层次从模型的视角看所有操作最终都归结为少数几个核心函数调用从而实现了极高的稳定性和可扩展性第一层函数调用 (Function Calling)这是最底层、最核心的一层也是与模型直接交互的接口。特点原子性与固定性只包含一小组在 Manus 中约 10-20 个固定的、原子性的函数。例如读写文件 (read/write file)、执行 Shell 命令 (execute shell command)、搜索文件和互联网 (search)以及一些浏览器操作模式安全得益于约束解码函数调用的格式和参数是严格受控的缓存友好由于这个函数列表是固定的KV 缓存可以被长期保持和复用作用这些原子函数边界清晰并且可以组合起来完成更复杂的工作流。它们是所有上层能力的基础第二层沙箱工具集 (Sandbox Utilities)这一层将大量的功能从函数调用层卸载到了 Agent 所在的虚拟机沙箱环境中。特点预装命令行工具Manus 在其定制的 Linux 系统中预装了大量为 Agent 开发的命令行工具。例如格式转换器、语音识别工具甚至一个特殊的MCP CLI用于调用 MCP 功能的命令行接口通过 Shell 调用Agent 不是通过新的函数来使用这些工具而是通过第一层的execute_shell_command函数来运行它们优势无限扩展可以在不修改模型函数调用空间action space的情况下不断增加新的能力符合模型心智对于熟悉 Linux 的模型来说通过ls /usr/bin发现新工具或者通过tool_name --help查看用法是一种非常自然的行为处理大数据这些命令行工具可以处理非常大的输出它们可以将结果写入文件或进行分页返回Agent 可以使用grep,cat,less等标准 Linux 工具来处理这些结果第三层软件包与 API (Packages APIs)这是最高层的抽象Agent 通过编写和执行代码来与外部世界进行更复杂的交互。特点编写脚本Agent 可以编写 Python 脚本来调用预授权的第三方 API 或自定义的软件包。例如使用一个 3D 设计库进行建模或调用一个金融 API 获取市场数据通过文件和 Shell 执行Agent 使用第一层的write_file函数创建脚本然后使用execute_shell_command函数来运行它优势处理内存密集型计算非常适合需要大量计算但又不需要将所有中间数据都塞入模型上下文的任务。例如分析一只股票一整年的价格数据脚本可以在运行时内存中完成计算只将最终的总结如平均值、波动率返回给模型高组合性代码和 API 本身具有极强的组合性可以在一个步骤内完成一系列复杂的操作这与CodeAct等研究论文的思想不谋而合通过这个三层架构Manus 巧妙地解决了工具过载的问题。从模型的角度来看无论它是在使用一个沙箱工具还是在调用一个复杂的 API最终都只是在调用那几个固定的、底层的原子函数。这使得接口保持了极度的简洁、缓存友好和正交性为构建一个既强大又稳定的通用 Agent 奠定了基础统领全局的设计哲学与一线实战在分享了所有精妙的技术细节之后Peak Ji 提出了一个或许是本次分享中最重要的观点它看似与之前所说的背道而驰请避免上下文过度工程化 (context over-engineering)。他回顾了 Manus 发布以来的发展历程发现那些带来最大性能飞跃的时刻并非来自增加了更花哨的上下文管理层或更聪明的检索技巧而是来自简化——来自移除不必要的技巧并给予模型多一点信任。每一次简化架构系统都会变得更快、更稳定、也更智能这引出了一条核心的设计哲学上下文工程的目标是让模型的工作变得更简单而不是更复杂。构建得更少理解得更多 (Build less, understand more)。在最后的 QA 环节这一哲学思想通过一系列具体的实践经验得到了进一步的印证这些来自一线的智慧为构建高效 Agents 提供了宝贵的参考关于评测用户反馈是黄金标准对 Manus 而言最重要的评测指标是每次会话结束后用户给出的 1-5 星评分内部自动化测试为辅他们创建了自有数据集包含可验证结果的执行型任务弥补了现有公开基准测试大多为只读任务的不足人类评估不可或缺对于网站生成、数据可视化这类难以用自动化指标衡量的、涉及“品味”的任务必须依赖大量的人类实习生进行主观评估。公开的学术基准如GAIA可能与真实用户需求严重脱节关于模型选择与架构设计优先选择旗舰模型尽管开源模型看似成本更低但对于输入远长于输出的 Agent 任务KV 缓存至关重要。旗舰模型提供商拥有更成熟的分布式 KV 缓存基础设施在规模化部署时可能反而更具成本效益利用模型差异进行路由不同的顶尖模型各有千秋例如 Claude 擅长编码Gemini 擅长多模态。应用层的优势在于无需绑定单一模型可以进行任务级甚至步骤级的智能路由测试架构的“未来兼容性”一个好的 Agent 架构应该在从一个较弱模型切换到一个较强模型时性能有显著提升。这种测试可以作为架构是否“未来兼容”的早期信号关于 Agent 设计避免角色拟人化不要强行将人类的组织架构如设计师、程序员、经理套用在 Agent 设计上。这种分工是人类上下文限制的产物采用功能性划分Manus 的多代理系统并非按角色划分而是按功能。只有少数几个核心 Agent如一个通用的“执行者 (Executor)”、一个“规划者 (Planner)”和一个“知识管理器 (Knowledge Manager)”以最大限度地降低通信复杂性从todo.md到规划者 Agent早期的 Agent 普遍使用todo.md文件进行任务规划但这会浪费大量 token 在文件的反复读写更新上。更优的模式是将其升级为一个独立的规划者 Agent使用“Agent as Tool”的范式进行交互关于强化学习 (RL) 与工具调用谨慎对待 RL对于一个需要支持开放、可扩展行动空间如MCP的通用 Agent进行 RL 的难度极高。这相当于在自己构建一个基础模型。目前阶段将这项工作交给模型公司而应用层专注于上下文工程是更明智的选择总而言之成功的上下文工程是一场在多个潜在冲突目标如信息保真度、成本、延迟、可扩展性之间寻求完美平衡的艺术。它要求开发者不仅要掌握精湛的技术更要拥有一种化繁为简、信任模型的深刻洞察力如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询