网站建设的进度免费制作微信小程序的软件
2026/3/22 12:22:40 网站建设 项目流程
网站建设的进度,免费制作微信小程序的软件,安徽建设工程信息管理平台,wordpress信息填写本文全面介绍了Ollama大模型平台的核心功能与开发技巧#xff0c;包括流式处理三种模式、CLI命令使用、Pydantic定义JSON结构、向量嵌入应用、Agent多轮工具调用以及Web Search API集成。通过丰富代码示例和最佳实践指导#xff0c;帮助开发者掌握从基础到高级的Ollama应用开…本文全面介绍了Ollama大模型平台的核心功能与开发技巧包括流式处理三种模式、CLI命令使用、Pydantic定义JSON结构、向量嵌入应用、Agent多轮工具调用以及Web Search API集成。通过丰富代码示例和最佳实践指导帮助开发者掌握从基础到高级的Ollama应用开发技能适合希望构建强大AI应用的程序员学习参考。一、流式处理核心概念1.1 三种流式模式模式字段用途聊天模式content流式输出助手消息实时渲染思考模式thinking显示模型推理过程工具调用tool_calls执行外部工具并返回结果1.2 流式处理示例from ollama import chat stream chat( modelqwen3:1.7b, messages[{role: user, content: What is 17 × 23?}], streamTrue, thinkFalse ) # 初始化状态变量和累积字符串 in_thinking False # 标记是否正在接收思考过程 content # 存储最终回答内容 thinking # 存储思考过程内容 # 遍历流式响应中的每个数据块 (chunk) for chunk in stream: # 如果当前块包含思考过程 (thinking) 内容 if chunk.message.thinking: # 如果是第一次接收到思考内容则打印标题 if not in_thinking: in_thinking True print(Thinking:\n, end, flushFalse) # 打印当前部分的思考内容不换行 print(chunk.message.thinking, end, flushFalse) # 将当前思考内容追加到总的思考字符串中 thinking chunk.message.thinking # 如果当前块包含实际回答 (content) 内容 elif chunk.message.content: # 如果之前在显示思考过程则切换状态并打印答案标题 if in_thinking: in_thinking False print(\n\nAnswer:\n, end, flushTrue) # 打印当前部分的回答内容不换行 print(chunk.message.content, end, flushTrue) # 将当前回答内容追加到总的回答字符串中 content chunk.message.content new_messages [{role: assistant, thinking: thinking, content: content}] print(\n\nNew messages:\n, new_messages)二、CLI 命令速查2.1 思考模式控制# 启用思考模式 ollama run deepseek-r1 --think Where should I visit in Lisbon? # 禁用思考模式 ollama run deepseek-r1 --thinkfalse Summarize this article # 隐藏思考过程(但仍使用思考模型) ollama run deepseek-r1 --hidethinking Is 9.9 bigger or 9.11?2.2 交互式会话控制# 启用思考 /set think # 禁用思考 /set nothink2.3 GPT-OSS# 支持三个级别: low, medium, high ollama run gpt-oss --thinklow Draft a headline ollama run gpt-oss --thinkmedium Draft a headline ollama run gpt-oss --thinkhigh Draft a headline三、结构化 JSON 输出3.1 使用 Pydantic 定义 Schemafrom ollama import chat from pydantic import BaseModel from typing import Literal, Optional # class BlurLocation(BaseModel): # province: str # city: str # district: str # # response chat( # modelqwen3:1.7b, # messages[{role: user, content: 曹县在具体在哪个位置}], # thinkFalse, # formatBlurLocation.model_json_schema() # ) # # loc BlurLocation.model_validate_json(response.message.content) # print(loc) class Object(BaseModel): name: str confidence: float attributes: str class ImageDes(BaseModel): summary: str objects: list[Object] scene: str colors: list[str] time_of_day: Literal[Morning, Afternoon, Evening, Night] setting: Literal[Outdoor, Indoor, Unknown] text_content: Optional[str]None response chat( modelqwen3-vl:2b, messages[{ role: user, content: Use Chinese to describe this photo and list the objects you detect., images: [/Users/okonma/Desktop/pics/misato.jpg] }], formatImageDes.model_json_schema(), options{ temperature: 0 } ) print(response.message.content)3.2 最佳实践✅推荐做法:使用 Pydantic (Python) 或 Zod (JavaScript) 定义 schema设置temperature0获得确定性输出在提示词中包含 JSON schema 说明通过 OpenAI 兼容 API 使用response_format参数四、向量嵌入4.1 推荐模型模型链接embeddinggemmaollama.com/library/embeddinggemmaqwen3-embeddingollama.com/library/qwen3-embeddingall-minilmollama.com/library/all-minilm4.2 使用建议使用余弦相似度进行语义搜索索引和查询使用同一个嵌入模型五、Agent 循环 (多轮工具调用)5.1 概念Agent 循环允许模型:自主决定何时调用工具将工具结果整合到回复中进行多轮工具调用5.2 实现要点提示:在提示词中告知模型它处于循环中可以进行多次工具调用5.3 完整示例搜索 Agentfrom ollama import chat, web_fetch, web_search # 准备工具字典 available_tools {web_search: web_search, web_fetch: web_fetch} messages [{role: user, content: what is ollamas new engine}] while True: response chat( modelqwen3:4b, messagesmessages, tools[web_search, web_fetch], thinkTrue ) # 显示思考过程 if response.message.thinking: print(Thinking: , response.message.thinking) # 显示回答内容 if response.message.content: print(Content: , response.message.content) messages.append(response.message) # 处理工具调用 if response.message.tool_calls: print(Tool calls: , response.message.tool_calls) for tool_call in response.message.tool_calls: function_to_call available_tools.get(tool_call.function.name) if function_to_call: args tool_call.function.arguments result function_to_call(**args) print(Result: , str(result)[:200]...) # 限制上下文长度截断结果 messages.append({ role: tool, content: str(result)[:2000 * 4], tool_name: tool_call.function.name }) else: messages.append({ role: tool, content: fTool {tool_call.function.name} not found, tool_name: tool_call.function.name }) else: break # 没有工具调用退出循环⚠️重要提示:建议将模型上下文长度增加到至少 32000 tokensOllama 云模型运行在完整上下文长度六、Web Search Fetch API6.1 初始化客户端import ollama # 配置 API Key client ollama.Client( headers{ Authorization: Bearer API_KEY } )6.2 Web Search API请求端点:POST https://ollama.com/api/web_search参数:query(string, 必填): 搜索查询字符串max_results(integer, 可选): 最多返回结果数 (默认 5, 最大 10)响应格式:{ results: [ { title: 网页标题, url: 网页 URL, content: 相关内容片段 } ] }使用示例:import ollama response ollama.web_search(What is Ollama?) print(response)6.3 Web Fetch API请求端点:POST https://ollama.com/api/web_fetch参数:url(string, 必填): 要获取的 URL响应格式:WebFetchResponse( title网页标题, content网页主要内容, links[链接1, 链接2, ...] )使用示例:from ollama import web_fetch result web_fetch(https://ollama.com) print(result)七、MCP Server 集成Ollama 支持通过 Python MCP server 在任何 MCP 客户端中启用 Web Search。7.1 Cline 集成在 Cline 中配置Manage MCP ServersConfigure MCP Servers{ mcpServers: { web_search_and_fetch: { type: stdio, command: uv, args: [run, path/to/web-search-mcp.py], env: { OLLAMA_API_KEY: your_api_key_here } } } }7.2 Codex 集成配置文件位置~/.codex/config.toml[mcp_servers.web_search] command uv args [run, path/to/web-search-mcp.py] env { OLLAMA_API_KEY your_api_key_here }7.3 Goose 集成Ollama 可通过 MCP 功能与 Goose 集成。AI大模型从0到精通全套学习大礼包我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。只要你是真心想学AI大模型我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来我也真心希望帮助大家学好这门技术如果日后有什么学习上的问题欢迎找我交流有技术上面的问题我是很愿意去帮助大家的如果你也想通过学大模型技术去帮助就业和转行可以扫描下方链接大模型重磅福利入门进阶全套104G学习资源包免费分享01.从入门到精通的全套视频教程包含提示词工程、RAG、Agent等技术点​02.AI大模型学习路线图还有视频解说全过程AI大模型学习路线​03.学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的04.大模型面试题目详解05.这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能 ‌突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询