2026/1/25 12:15:33
网站建设
项目流程
哪些网站可以免费申请域名,哪些网站是用c语言做的,做装修网站如何,门户网站建设自查简介
MCP是由Anthropic开源的AI大模型标准化工具箱#xff0c;通过统一协议让AI与浏览器、文件系统等外部工具无缝交互。文章详细介绍了MCP的基本概念、技术原理#xff0c;以及如何在Cline、Cursor等工具中配置使用。通过GitHub操作、文件系统访问、时间查询和浏览器工具等…简介MCP是由Anthropic开源的AI大模型标准化工具箱通过统一协议让AI与浏览器、文件系统等外部工具无缝交互。文章详细介绍了MCP的基本概念、技术原理以及如何在Cline、Cursor等工具中配置使用。通过GitHub操作、文件系统访问、时间查询和浏览器工具等实际案例展示了MCP如何提升AI与外部世界的交互效率并提供丰富的MCP工具资源库帮助开发者快速掌握这一大模型交互新技术。MCP最近在AI 领域引发了广泛关注特别是在海外各大社区中大家热烈讨论热度相当高。我打开了 Google Trends这是一个专门用于查看全球热点趋势的网站。输入关键词后可以查看其热度变化。我搜索了“MCP”它的趋势如图所示变化非常明显。各位可以参考一下。每天都有新的 MCP 工具被推出为我们带来了无限的机会。当我打开Cline 的 MCP Servers时便发现了许多新工具等待探索。本文我会全面介绍MCP包括它的基本概念、核心技术原理以及它在实际应用中的各种场景。让你轻松掌握MCP的所有要点。什么是 MCPMCPModel Context Protocol即模型上下文协议是由AnthropicClaude的母公司于2024年11月开源发布的一项全新技术。简单来说MCP是一个AI 大模型的标准化工具箱。大模型可以通过这些工具与外界互动获取信息并完成具体任务。在日常工作和学习中我们经常需要与浏览器、文件、数据库和代码仓库等外部工具进行交互。在传统方式中我们需要手动截图或复制文本再将其粘贴到AI 窗口中进行对话。大家请注意我的插画中的箭头都是从右到左表示内容是单向流动的而不是双向的。这意味着我们是将浏览器、文件系统或GitHub中的信息复制到 AI 中以便进行对话时的数据流向。MCP通过标准化的协议让我们不再需要手动截图、复制文本然后再粘贴到AI 窗口中进行对话。这一过程被自动化了简化了我们的操作。MCP 服务充当AI 和外部工具之间的桥梁能够自动替代人类访问和操作这些外部工具。在我的插图中箭头为双向表示AI 可以直接访问 MCP 服务。而MCP 服务则能访问浏览器、文件系统等数据源。通过这种方式数据能够通过 MCP 服务传输到 AI 中。每个MCP 服务也称为MCP Server专注于特定的任务。例如有的服务专门用于读取和写入浏览器信息有的负责处理本地文件还有的用于操作 Git 仓库等。MCP Server通常是一个在本地运行的程序可能是用Node.js或Python开发的。大模型通过操作系统的标准输入输出stdio即我们常说的输入与输出通道来进行信息交流与处理并调用某个 MCP Server。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】它的信息格式是 JSON这是一种常用的数据交换格式。{ jsonrpc: 2.0, id: 129, method: tools/call, params: { name: search_repositories, arguments: { query: user:BNTang } } }MCP Server在接收到请求后会通过自身的代码或外部工具的 API来执行任务。从这里可以看出MCP 协议与Function Calling非常相似。MCP 的最大优点是整合了之前各大模型不同的Function Call 标准形成了一个统一的标准协议。而且不仅是 Claude几乎所有市面上的大模型都可以接入MCP。本文我将用免费的 DeepSeek来进行实战演示。准备工作在正式开始之前我们需要先准备一个支持 MCP 协议的客户端。目前支持MCP 功能的客户端并不多主要有AI 编程工具 Cline、Cursor、WindSurf以及Claude 官方客户端Claude App等。本文将以开源免费的Cline为例进行演示并简要介绍如何在Cursor中完成相关配置。首先请访问VSCode 官网下载并安装Visual Studio Code。后续我会持续分享VSCode 的安装与使用教程欢迎大家关注我以便第一时间获取最新内容。安装完成后我们打开VSCode 软件在界面左侧的工具栏中找到并点击Extensions 图标即可进入插件市场方便我们安装和管理各种实用插件。在Extensions 市场中搜索Cline找到并点击安装插件安装完成后在左侧面板找到Cline点击进入接下来需要为Cline 配置一个 AI 模型。首先点击设置Settings在模型提供商中选择OpenRouter它提供免费的DeepSeek V3 模型在模型搜索框中输入deepseek/deepseek-chat-free选择该模型这是免费的DeepSeek V3 模型大家可以选择它。接下来我们需要获取一个API Key点击Get OpenRouter API Key需要登录可以使用谷歌账号该地址在国内可以直连。点击Authorize 授权点击打开 Visual Studio Code然后再点击Open此时OpenRouter 的 API Key 会自动填写Cline 支持两种运行模式Planning规划模式和Acting执行模式具体说明如下Planning 模式此模式用于生成详细的行动计划非常适合在开始编写代码之前与 AI 进行沟通清晰地分解任务从而避免盲目操作导致的返工。您可以利用此模式规划新功能的实现步骤或讨论如何优化现有代码。Acting 模式此模式负责根据 Planning 阶段的计划逐步执行任务。适用于在明确计划后让 AI实际执行操作。例如您在 Planning 模式中已确定了 API 调用的实现逻辑然后可以切换到 Acting 模式让 AI帮助您编写具体代码。此外如果您希望为 Planning 和 Acting 模式分别使用不同的 AI 模型可以勾选“Use different models for Plan and Act modes”选项。启用该选项后您可以为 Planning 模式指定一个擅长分析和规划的 AI 模型同时为 Acting 模式配置一个更适合执行操作的模型。这样两个模式可以各司其职提供更灵活和高效的智能辅助体验。为Plan 模式和Act 模式分别配置OpenRouter 的 API Key。例如您可以统一使用免费的DeepSeek 模型但后续可以根据自己的实际需求进行调整。在写代码时可以为Act 模式配置Claude 模型而为Plan 模式配置ChatGPT 模型。这样您可以充分利用各个模型的优势提高工作效率和智能辅助体验。只需配置一次OpenRouter 的 API Key即可让两个模式共享该设置。配置完成后请点击Save以保存设置。接下来返回Cline 的主界面点击New Task开始测试。选择Act 模式并勾选Auto-append: Read, Browse。这是我之前的配置供大家参考。发送 “你好”查看输出效果此时Cline 的配置已完成。接下来我们要安装Node.js。正如之前所述MCP Server 本质上是运行在电脑上的一个 Node.js 程序因此Node.js 的运行环境必不可少。安装Node.js可以参考 三种方式轻松搭建 Node.js至此所有准备工作就完成了。接下来我们开始正式安装 MCP Server。第一个 MCP我们回到Cline点击这个MCP Server的小图标。这是Cline新推出的MCP Server 应用市场。我们可以按照星标数量GitHub Stars进行排序。在这里找到非常受欢迎的MCP 服务器。我们的第一个MCP 服务以这个GitHub 项目为例。请点击“安装”Install按钮进行安装。它会自动打开一个AI 聊天窗口您可以根据AI 的指引完成MCP Server 的安装。第一步是创建一个空文件夹用于安装的目标位置mkdir E:\Document\Cline\MCP\github-server这一步不是必需的我将直接点击“继续Run Command”按钮。在第二步中它要求我们填写一个GitHub Token。请打开提供的链接进入GitHub 的设置页面找到Token 生成部分然后点击“创建一个新的 Token”。为Token 命名我这里选择Cline。在这里我为它授予了所有仓库的权限选择了所有仓库All repositories。接下来详细讨论一下Repository permissions其中包含一些细致的权限控制选项。这里我为他提供了创建仓库的权限请将Administration权限设置为Read and write。此外还有编写代码的权限请将Codespaces 权限设置为Read and write。另外还有一个查看仓库内容的权限请将Contents权限设置为Read and write。你可以根据具体需求为其分配相应的权限设置完成后点击Generate token按钮即可生成该Token。这样我们的GitHub Token就创建完成了。请记得为令牌设置一个合适的过期时间否则GitHub会显示黄色警告 ⚠️这里我操作得太快没有截取对应的图片也就不再回退了。接下来我们复制生成的 Token即可。回到Cline粘贴Token后点击「发送Send」按钮即可。Cline已经为我们创建好了配置文件点击「Save」按钮即可保存。Cline wants to use a tool on the GitHub MCP server请点击「Approve」按钮。接下来Cline想使用npx 命令不过此步骤并非必需我仍然点击「继续Run Command」按钮。如果出现「Proceed While Running继续运行」提示请点击「Proceed While Running」按钮。若您使用的是Mac 系统到此安装步骤便已完成。但若您使用的是Windows 系统则还需额外进行一些配置。请注意以下步骤非常重要请务必仔细操作打开配置文件cline_mcp_settings.json首先将原本位于command中的npx移动到args数组中将command的值修改为cmd在args数组中新增一行/c最终的配置文件参考如下{ mcpServers: { github.com/modelcontextprotocol/servers/tree/main/src/github: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-github ], env: { GITHUB_PERSONAL_ACCESS_TOKEN: 脱敏处理, }, disabled: false, autoApprove: [] } } }保存配置文件后回到MCP Server的「Installed」选项卡此时GitHub MCP Server已经显示为绿色状态表示安装成功。至此MCP Server的配置已成功完成。实际上配置MCP Server最核心的就是上述的配置文件前面的图形界面步骤并非必须后续直接编辑配置文件也可以完成MCP Server的配置。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】接下来我们进行一次简单的测试点击界面上的「Done」按钮新建一个对话点击「New Task」按钮向AI提问例如我的名字是 BNTang我在 GitHub 上有哪些仓库回车发送问题我们无需手动指定MCP 服务或工具AI会自动智能地选择最合适的工具进行处理。在发送问题后AI请求调用名为search_repositories的MCP 工具点击「Approve」按钮允许工具调用此时Cline会调用MCP 工具并获取数据最终大模型会将获取到的数据进行整理并返回最终结果如图所示AI列举了我的14 个公开仓库说明MCP Server已成功配置并正常运行。接下来我们打开一个Powershell界面我们一起来探究一下MCP的本质究竟是什么。我先粘贴三行命令$json {jsonrpc:2.0,id:123,method:tools/call,params:{name:search_repositories,arguments:{query:user:BNTang}}} $env:GITHUB_PERSONAL_ACCESS_TOKEN 脱敏处理 echo $json | npx -y modelcontextprotocol/server-github第一行定义了一个JSON 字符串它正是客户端Cline向MCP Server传递的参数。我们看到JSON中的method字段是 “tools/call”表示调用工具params中的工具名为 “search_repositories”即搜索仓库query则是具体的搜索参数这里是查询GitHub 用户“BNTang”。第二行设置了运行时的环境变量即GitHub的个人访问令牌已脱敏。第三行则通过管道符将刚才定义的JSON 参数传递给MCP Server一个基于NodeJS的程序执行。现在我们运行一下上述命令可以看到成功获取了GitHub上用户 “BNTang” 的仓库信息。通过这个例子我们发现MCP本质上并没有什么神秘之处。它的核心原理就是客户端通过命令行调用本地或服务器上的NodeJS或Python程序执行特定操作后再返回结果。接下来我们再测试一个新的任务创建一个名为 “cline_test” 的GitHub 仓库。我在Cline的问答输入框中输入请帮我创建一个 GitHub 仓库名字叫做 cline_test此时Cline会询问我是否允许它调用MCP Server我点击Approve随后Cline显示仓库创建成功并返回了仓库地址点击链接我们跳转到GitHub查看一下确认仓库已经成功创建我们注意到单个MCP Server工具提供了多达26 项强大的功能其中包括但不限于创建或更新文件create_or_update_file搜索仓库search_repositories创建仓库create_repository获取文件内容get_file_contents推送文件push_files这些功能几乎涵盖了所有与 GitHub 交互的需求一个 MCP 工具就可以轻松处理这些操作。更重要的是我们只需使用自然语言就能直接指挥AI完成这些工作全程无需离开VSCode极大提升了我们的工作效率。通过以上示例我们清晰地感受到了MCP的强大与便捷之处。Cursor MCP接下来我们来看如何配置 Cursor。需要注意的是低版本的 Cursor是可以支持MCP 服务的我使用的版本是0.48.7。在Cursor 的设置中我首先将版本切换到Early Access抢先体验版本。然后通过点击Check for Updates来升级 Cursor 到最新版本版本号会随时间变化因此这里不再说明具体版本号。最新版本支持全新的MCP 配置方式。本文将聚焦于新的配置方法。首先在Cursor 设置的左侧找到MCP 配置选项。目前的MCP 配置是通过文件方式实现的在项目根目录下创建一个名为.cursor的文件夹在.cursor 文件夹中右击选择New File创建文件mcp.json接下来将之前在Cline中所配置的内容完整复制到mcp.json文件中{ mcpServers: { github.com/modelcontextprotocol/servers/tree/main/src/github: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-github ], env: { GITHUB_PERSONAL_ACCESS_TOKEN: 脱敏处理 }, disabled: false, autoApprove: [] } } }当你粘贴完成后左下角会弹出一个New MCP server detected检测到新的 MCP 服务器提示点击Enable启用它之后打开Cursor的MCP 选项卡检查MCP Server的状态确认它已经变为绿色⚠️注意如果弹出了黑色窗口请不要关闭它只要确认MCP Server是绿色即可。至此Cursor 的配置已完成说明当前的Cursor 配置与Cline 的设置是一致的。接下来我将演示如何添加另一种 MCP Server。我们前往MCP Servers GitHub 页面找到官方提供的自定义 Server。这次我将演示file system文件系统这个Server点击链接后向下滚动页面你会看到npx 的安装方式我们将file system的配置添加到Cursor的mcp.json 文件中。复制相应的段落配置如下所示在mcp.json 文件中添加一个逗号并将复制的内容粘贴到逗号后面确保逗号位于最后一行的末尾{ mcpServers: { github.com/modelcontextprotocol/servers/tree/main/src/github: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-github ], env: { GITHUB_PERSONAL_ACCESS_TOKEN: 脱敏处理 }, disabled: false, autoApprove: [] }, filesystem: { command: npx, args: [ -y, modelcontextprotocol/server-filesystem, /Users/username/Desktop, /path/to/other/allowed/dir ] } } }对于Mac 系统配置到此即可对于Windows 系统需要将npx移动到args 数组中同时将command修改为cmd并新增一行/c。完成以上步骤后还需调整文件系统的配置如下这里的配置定义了file system可操作的目录。我将电脑桌面的目录添加到此列表中。Windows 系统路径记得使用 **双反斜杠 **例如C:\Users\Public\Desktop。注意将不需要的配置删除完成MCP 的添加后保存并返回Cursor 设置进入MCP 选项卡启用file system 这个 MCP Server当前显示为Disabled禁用点击Disable变为Enable启用启用后点击Refresh刷新按钮这时可以看到file system 的 MCP Server已经变为绿色的状态如果打开了一个新的空白命令行窗口请不要关闭不用理会只需保证MCP Server为绿色即可。最后我们来测试file system 这个 MCP Server。在Cursor 的 AI 对话框中务必将模式切换到Agent 模式在此模式下我询问C:\Users\Public\Desktop 这个文件夹里面有什么也就是想了解桌面上都有什么文件。回车后Cursor 将使用 MCP 工具点击Run CommandCursor 说输出似乎有些乱码建议用另一种方式查看继续点击Run Command最终成功列出了目录中的内容顺便提一句如果希望 Cursor 自动使用 MCP 工具而无需每次授权可以在 Cursor 设置中进入Features选项卡勾选Enable auto-run mode选项这样在使用 MCP 时就无需再次确认授权。我们同样可以将此配置文件直接复制到 Cline 中使 Cline 也能使用file system这个 MCP Server。全量复制 Cursor 的mcp.json内容切换到 Cline进入MCP Servers点击Installed选项卡然后选择Configure MCP Server然后直接粘贴复制的内容保存后可以看到file system这个 MCP Server 也已经变为绿色状态这样无论是在 Cursor 还是 Clinefile system这个 MCP Server 都可以顺利使用两个工具之间的配置是可以互通的。总结一下我们介绍了两种设置 MCP 的方法第一种是让 AI 自动帮助我们生成配置文件第二种是利用 GitHub 上的示例手动粘贴配置。这两种方法均可轻松使用用户可以根据需要选择其一。Python 版这里我们以一个特殊的 MCP Servertime为例展示如何安装和配置使用 Python 编写的 MCP Server。第一步访问 MCP Server 的 GitHub 页面在 MCP Server 列表中找到time点击进入其 GitHub 页面第二步安装 Python 环境如已有可跳过由于该 MCP Server 基于 Python 开发因此需确保你的电脑已安装 Python 环境如果尚未安装 Python请参考Python 双版本 Windows 安装攻略。第三步安装 MCP Servertime复制如下命令pip install mcp-server-time打开Powershell粘贴并执行安装完成界面第四步配置 MCP Server 到 Cline在 GitHub 页面找到Configure for Claude.app部分展开Using pip installation复制以下 JSON 配置time: { command: python, args: [-m, mcp_server_time] }打开 Cline 的 MCP 配置文件cline_mcp_settings.json将上述配置添加到mcpServers中注意逗号{ mcpServers: { github.com/modelcontextprotocol/servers/tree/main/src/github: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-github ], env: { GITHUB_PERSONAL_ACCESS_TOKEN: 脱敏处理 }, disabled: false, autoApprove: [] }, filesystem: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-filesystem, C:\\Users\\Public\\Desktop ] }, time: { command: python, args: [-m, mcp_server_time] } } }第五步配置本地时区接下来在刚才的args后面添加时区配置这里以上海时区为例--local-timezoneAsia/Shanghai配置后效果保存配置文件。第六步验证 MCP Server 是否成功加载回到Cline的MCP Server面板切换到Installed选项卡确认time已变为绿色状态第七步测试 MCP Server 功能新建对话框切换到Act 模式输入测试问题When it’s 4 PM in New York, what time is it in London?首次使用时Cline 将请求调用 MCP 权限。若想避免每次询问可在Cline 设置中勾选Use MCP Server对应 MCP 工具的Auto Approve选项点击Approve后MCP Server 成功调用并返回结果最终效果第八步迁移配置到 Cursor可选同样的配置也可直接复制到Cursor的.cursor/mcp.json文件中保存后点击Refresh即可加载以上即为一个特殊 MCP Servertime的完整安装、配置与使用过程。后续我们将继续介绍其他实用的 MCP 服务。Broswer Tool我们来看一个前端开发必备的 MCP 工具名为Browser Tool。首先在 Cline 中搜索Browser Tool点击进入其 GitHub 页面这个 MCP 工具可以让 AI 直接读取浏览器中的内容。要使用它我们需要先安装一个 Chrome 插件插件下载地址https://github.com/AgentDeskAI/browser-tools-mcp/releases/download/v1.2.0/BrowserTools-1.2.0-extension.zip我使用的是谷歌浏览器这一步的主要目的是在浏览器中安装这个插件。下载完成后进入浏览器的扩展程序管理页面在页面右上角打开“开发者模式”然后将刚刚下载的插件解压到本地进入解压后的文件夹将其中的 chrome-extension 文件夹拖拽到浏览器的扩展程序页面中这样BrowserTools MCP 插件就成功安装了插件安装完成后我们正式安装 Browser Tool 这个 MCP 工具。这里我们依旧使用 npx 安装方式。我仿照之前的配置在 Cline 中新建一个配置项将之前的 file system 配置复制一份并将名称修改为 browser-tool-mcp接下来我们回到 GitHub 页面复制以 MCP 结尾的 npx 命令agentdeskai/browser-tools-mcplatest将此命令粘贴到 args 中删除不需要的内容例如C:\\Users\\Public\\Desktop最终配置如下browser-tool-mcp: { command: cmd, args: [ /c, npx, -y, agentdeskai/browser-tools-mcplatest ] }此时我们查看 Cline 的 MCP Server 选项卡发现 browser-tool-mcp 已经变成绿色说明安装成功但到这里还没有完全结束我们还需要执行另一个命令npx agentdeskai/browser-tools-serverlatest在命令行中执行以 server 结尾的命令我是在 Powershell 中执行的接着我们打开浏览器按下 F12 打开开发者工具此时浏览器会提示“BrowserTools MCP 已经开始调试此浏览器”我们再回顾一下使用这个 MCP Server 需要启动的三个部分浏览器中安装的插件命令行中执行的以 server 结尾的命令Cline 中配置的以 MCP 结尾的命令只有同时启动这三个部分我们才能真正实现浏览器与 AI 的完全打通。现在我让 AI 分析一下浏览器的网络面板请分析一下浏览器的网络面板并告诉我有哪些请求中文回答我。AI 给出的分析非常详细大家可以看截图我这里就不再赘述。接下来我返回浏览器网页打开调试工具的 Element 选项卡鼠标选中一个元素然后我再让 AI 来解释一下浏览器中我选中的部分浏览器我选中部分是什么里面有何主要控件请用中文回答我。AI 同样给出了清晰详细的解释大家可以参考截图。通过以上操作我们成功实现了前端开发与 AI 之间的高效沟通。相比于过去我们手动从浏览器 Element 选项卡中复制 HTML 代码再与 AI 进行问答的方式效率得到了极大的提升。因此使用 Browser Tool 这个 MCP Server 工具可以显著提高我们前端开发的效率。MCP 工具大全Smithery.ai 是一个 MCP 工具的聚合网站目前已收录超过 4,219 种 MCP Server我们可以根据自己的需求在这里找到最适合自己的 MCP 服务比如搜索引擎相关、命令执行相关、数据库相关、网络爬虫相关等等。下面我以 Smithery.ai 中的一个名为 Sequential Thinking 的 MCP Server 为例Sequential Thinking 能够将普通的 AI 大模型转化为具备推理能力的模型。点击 Sequential Thinking 链接进入其详细介绍页面接下来我们无需关注右侧的安装方式直接进入其 GitHub 首页按照惯例找到包含 npx 命令的那一行将其复制下来然后回到 Cline 中在 mcpServers 中添加一个逗号后粘贴刚才复制的内容。如果你使用的是 MacOS直接粘贴即可如果你使用的是 Windows则需要稍作修改将 npx 移动到 args 中command 改为 cmd并在 args 中添加 /csequential-thinking: { command: cmd, args: [ /c, npx, -y, modelcontextprotocol/server-sequential-thinking ] }这样就完成了安装。此时在 Cline 的 MCP Server 选项卡中sequential-thinking 会变成绿色表示安装成功熟练之后安装一个 MCP 工具只需几秒钟。同样我们也可以将上述配置文件复制到 Cursor 中Cursor 也能使用该 MCP Server。在 Cursor 的 MCP Server 配置中最后一个 MCP Server 后面添加一个逗号将配置内容粘贴进去保存后点击 Refresh 刷新一下sequential-thinking 同样会变成绿色好了我突然意识到本文篇幅已经很长了后续我会继续介绍更多 MCP 工具以及组合使用的方法感兴趣的朋友可以关注我的公众号后续会持续更新。如何学习AI大模型我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。1.AI大模型学习路线图2.100套AI大模型商业化落地方案3.100集大模型视频教程4.200本大模型PDF书籍5.LLM面试题合集6.AI产品经理资源合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】