2026/3/8 6:25:41
网站建设
项目流程
手机网站设计规格,室内设计软件排行榜,太原网站建设策划方案,现在网站用什么软件做Ollama v0.15 引入了一个名为 ollama launch 的新命令#xff0c;用于设置和运行你喜欢的编码工具#xff0c;如 Claude Code、OpenCode 和 Codex#xff0c;支持本地或云端模型。
如果你一直在关注 Ollama 的最新更新#xff0c;你知道他们在 v0.14 中添加了 Anthropic A…Ollama v0.15 引入了一个名为ollama launch的新命令用于设置和运行你喜欢的编码工具如 Claude Code、OpenCode 和 Codex支持本地或云端模型。如果你一直在关注 Ollama 的最新更新你知道他们在 v0.14 中添加了 Anthropic API 兼容性。这为 Claude Code 等工具与开源模型配合使用打开了大门。但设置仍需要手动配置包括导出环境变量、设置基础 URL 以及弄清楚哪些模型适合编码。ollama launch命令改变了这一点使启动变得更好。我想测试一下并与你分享我的发现因为我知道你们中的许多人正在寻找在本地运行代理编码工具而不用消耗 API 积分的方法。所以我花了一个下午设置不同的集成测试各种模型并记录哪些有效。在这篇文章中让我向你展示我发现的关于 Ollama Launch 的内容。1、Ollama Launch 是什么ollama launch是一个新命令它处理将编码工具连接到 Ollama 模型的所有设置。它会引导你完成模型选择并自动启动你选择的集成。目前它支持四个集成Claude Code— Anthropic 的代理编码工具运行在你的终端中OpenCode— 终端编码的开源替代方案Codex— OpenAI 的编码助手集成Droid— 另一个编码工具选项当你运行ollama launch时会看到一个交互式菜单来选择你想要的集成。或者你可以使用ollama launch claude或ollama launch opencode等命令直接转到特定工具。设置在后台处理 Anthropic API 配置。以前你需要手动设置export ANTHROPIC_AUTH_TOKENollama export ANTHROPIC_BASE_URLhttp://localhost:11434现在只需运行一个命令你就准备好编码了。2、开始使用设置大约需要五分钟。这是你需要做的。2.1 更新 Ollama确保你有 Ollama v0.15 或更高版本。如果你使用的是旧版本请从 ollama.com 下载最新版本。确保安装了 Ollama v0.15检查版本ollama --version我的当前版本落后了所以我需要运行更新。如果需要从以下地址更新https://ollama.com/download。下载完成后点击它开始升级并按照向导步骤完成。安装完成后确认版本应该是 0.15.2 或更高。2.2 拉取编码模型你需要一个能很好处理代码的模型。Ollama 推荐这些对于本地模型需要约 23GB VRAM支持 64K 上下文glm-4.7-flashqwen3-codergpt-oss:20b对于云端模型完整上下文长度无硬件要求glm-4.7:cloudminimax-m2.1:cloudqwen3-coder:480b-cloud拉取你选择的模型ollama pull glm-4.7-flash或者对于云端ollama pull glm-4.7:cloud预期输出模型下载/注册云端模型很轻量因为推理在远程进行2.3 配置上下文长度这很重要且容易遗漏。默认情况下Ollama 将上下文长度设置为4,096 个令牌。编码工具需要更多才能正常工作。你至少需要64,000 个令牌才能用于 Claude Code 和类似工具。打开 Ollama 设置并更新上下文长度。如果没有此更改模型将没有足够的内存来处理多文件操作、工具调用或扩展的编码会话。云端模型自动以完整上下文长度运行所以如果你使用那些可以跳过此步骤。2.4 启动ollama launch claude你会看到 Claude Code 使用你选择的模型启动。请记住在之前的步骤中我拉取了 GLM-4.7 云端版本对于这一步要工作你需要确保你有 Ollama Cloud 账户这每月花费我 20 美元我在之前的教程中注册了 —我尝试了 Claude Code Ollama 工作流程如果你想拉取其他模型这里是命令# GLM 4.7 Cloud — 推荐用于编码 ollama pull glm-4.7:cloud # MiniMax M2.1 Cloud — 替代选项 ollama pull minimax-m2.1:cloud # Qwen3 Coder 480B Cloud — 最大的编码模型 ollama pull qwen3-coder:480b-cloud # GPT-OSS 120B Cloud — 另一个大选项 ollama pull gpt-oss:120b-cloud我之前还拉取了gpt-oss:120b-cloud、deepseek-coder:1.3b 和 qwen2.5-coder:7b这就是为什么你在我的可用模型列表中看到它们3、Ollama Launch 测试我测试了ollama launch与 Claude Code 和 OpenCode第一步是确保已安装 Claude CodemacOS/Linux/WSLcurl -fsSL https://claude.ai/install.sh | bashWindows PowerShellirm https://claude.ai/install.ps1 | iex你可能需要 Ollama 账户来使用云端模型如果提示在 ollama.com 注册当你运行ollama launch claude你会看到一个模型选择提示。在我的情况下我有一个本地和云端选项的混合deepseek-coder:1.3b (本地)*glm-4.7:cloud*gpt-oss:120b-cloud*qwen2.5-coder:7b (本地)我为我的主要测试选择了glm-4.7:cloud因为云端模型以完整上下文长度运行没有任何硬件限制。一旦我选择模型选项它就非常快速地启动了 Claude Code而没有我在之前的设置中遇到的配置麻烦当我运行状态检查时我看到环境变量如下模型glm-4.7:cloud认证令牌ANTHROPIC_AUTH_TOKENAnthropic 基础 URLhttp://localhost:11434一旦 Claude Code 运行我运行第一个提示来测试create a python function that calculates fibonacci numbers and save it to fib.py正如你所见它快速轻松地创建代码。我现在使用我的 Ollama Cloud 模型 Claude Code 配合这个简单的 Ollama Launch 设置。4、最后的想法ollama launch是 Ollama 工具包的最好补充不再浪费时间在手动配置上。它消除了设置编码工具集成的摩擦并使整个过程对更多开发者开放。这一个命令让你从零开始使用本地模型运行 Claude Code。Ollama 文档中提到了所有内容的链接。试一试让我知道它对你的设置如何工作。原文链接用Ollama Launch连接AI编码代理 - 汇智网