2026/2/14 13:57:03
网站建设
项目流程
淘宝官网首页网站,流量多网站,如何利用seo赚钱,安康网站建设公司【大模型测试】Python 调用大模型 API 接口开发指南#xff08;2026 超详细实战教程#xff09;
以下是基于 2026 年最新实践的 Python 调用大模型#xff08;Large Language Models, LLM#xff09;API 接口开发指南。大模型 API 已成为 AI 开发的核心#xff08;如文本…【大模型测试】Python 调用大模型 API 接口开发指南2026 超详细实战教程以下是基于 2026 年最新实践的Python 调用大模型Large Language Models, LLMAPI 接口开发指南。大模型 API 已成为 AI 开发的核心如文本生成、聊天机器人、代码补全、翻译等。我们将从零起步覆盖主流提供商如 OpenAI、Anthropic、Groq、Hugging Face、Google Gemini 等包括环境准备、基本调用、高级技巧、统一框架、性能优化和完整项目实战。教程基于 Python 3.12参考了 2026 年主流文档和社区最佳实践如 LiteLLM SDK、Groq 集成等。 假设你有基本的 Python 知识如 import、函数、异常处理。如果你是初学者先安装 Python 和 pip。为什么学这个2026 年LLM API 已标准化OpenAI 格式主导调用简单但需处理 API 密钥、限速、成本。应用场景构建聊天 App、自动化脚本、数据分析工具。免费/付费选项免费试用常见但生产级需付费e.g., OpenAI $0.02/1K tokens。0. 环境准备5 分钟安装 Python 依赖使用 pip 安装核心库。推荐用虚拟环境venv。# 基础请求库pipinstallrequests httpx# 主流 SDK推荐pipinstallopenai anthropic groq huggingface-hub litellm# LiteLLM 为统一 SDK# 可选异步/流式高性能pipinstallaiohttp asyncio# 集成框架高级pipinstalllangchain streamlit# LangChain 为链式调用Streamlit 为 UI获取 API 密钥OpenAI官网 platform.openai.com/account/api-keys 创建密钥。Anthropic (Claude)console.anthropic.com/account/keys。Groqconsole.groq.com/keys免费试用快。Hugging Facehuggingface.co/settings/tokens免费推理 API。Google Geminimakersuite.google.com/app/apikey。存储密钥用环境变量安全。e.g.,export OPENAI_API_KEYsk-...Windows 用 set。测试环境importosprint(os.environ.get(OPENAI_API_KEY))# 应输出你的密钥1. 主流大模型 API 提供商速览2026 Top 8基于 2026 年市场 以下是热门选项免费/付费混合提供商核心模型示例优势定价输入/输出 per 1K tokensPython SDK免费额度OpenAIGPT-4o, GPT-4o-mini多模态文本图像音频工具调用强$2.5/$10 (GPT-4o)openai$5 试用AnthropicClaude 3.5 Sonnet大上下文200K tokens安全$3/$15anthropic免费试用限速GroqLlama 3.1 70B, Mixtral超快推理LPU 硬件开源模型$0.24/$0.24 (Mixtral)groq免费 API 限额Hugging FaceLlama 3, Mistral开源模型免费推理自定义免费/付费Inference APIhuggingface-hub无限免费限速Google GeminiGemini 1.5 Pro多模态搜索集成$0.5/$1.5google-generativeai免费试用Mistral AIMistral Large 2高效多语言$2/$6mistralai免费社区模型CohereAya 23B企业级自定义$0.5/$1cohere免费试用ElevenLabsVoice AI (非纯文本)语音合成$0.18/minelevenlabs免费 10K chars选择建议初学者从 OpenAI/Groq 开始SDK 简单。生产用 LiteLLM 统一多提供商。2. 基本调用Hello World 级核心发送提示prompt获取响应。以下是单行/简单示例。2.1 OpenAI 示例importosfromopenaiimportOpenAI clientOpenAI(api_keyos.environ[OPENAI_API_KEY])responseclient.chat.completions.create(modelgpt-4o-mini,messages[{role:user,content:解释量子计算简短点。}])print(response.choices[0].message.content)输出示例量子计算利用量子比特进行并行计算能解决经典计算机难题如因子分解。2.2 Anthropic (Claude) 示例importosfromanthropicimportAnthropic clientAnthropic(api_keyos.environ[ANTHROPIC_API_KEY])responseclient.messages.create(modelclaude-3-5-sonnet-20241022,max_tokens100,messages[{role:user,content:写一首关于 AI 的短诗。}])print(response.content[0].text)2.3 Groq 示例importosfromgroqimportGroq clientGroq(api_keyos.environ[GROQ_API_KEY])responseclient.chat.completions.create(modelllama3-70b-8192,messages[{role:user,content:Python 如何处理异常}])print(response.choices[0].message.content)2.4 Hugging Face Inference API 示例importosfromhuggingface_hubimportInferenceClient clientInferenceClient(tokenos.environ[HF_TOKEN])responseclient.text_generation(meta-llama/Llama-3.2-3B-Instruct,描述 Hugging Face 的作用。,max_tokens50)print(response)通用提示用try-except处理错误如限速、密钥无效。e.g.,except Exception as e: print(e)。3. 高级技巧生产级开发3.1 流式响应Streaming实时输出如聊天 App。# OpenAI 示例streamclient.chat.completions.create(modelgpt-4o-mini,messages[{role:user,content:讲个笑话。}],streamTrue)forchunkinstream:ifchunk.choices[0].delta.content:print(chunk.choices[0].delta.content,end)3.2 异步调用Async高并发用 asyncio 并发多个请求。importasynciofromopenaiimportAsyncOpenAI async_clientAsyncOpenAI(api_keyos.environ[OPENAI_API_KEY])asyncdefasync_call(prompt):responseawaitasync_client.chat.completions.create(modelgpt-4o-mini,messages[{role:user,content:prompt}])returnresponse.choices[0].message.contentasyncdefmain():tasks[async_call(提示1),async_call(提示2)]resultsawaitasyncio.gather(*tasks)print(results)asyncio.run(main())3.3 工具调用Function Calling让模型调用自定义函数如计算器。OpenAI/Anthropic 支持。# OpenAI 工具示例tools[{type:function,function:{name:add_numbers,description:加两个数,parameters:{type:object,properties:{a:{type:number},b:{type:number}},required:[a,b]}}}]responseclient.chat.completions.create(modelgpt-4o,messages[{role:user,content:35?}],toolstools)# 如果调用工具执行函数ifresponse.choices[0].message.tool_calls:tool_callresponse.choices[0].message.tool_calls[0]iftool_call.function.nameadd_numbers:argsjson.loads(tool_call.function.arguments)resultargs[a]args[b]print(result)3.4 多模态图像/音频OpenAI GPT-4o 支持。responseclient.chat.completions.create(modelgpt-4o,messages[{role:user,content:[{type:text,text:描述这张图。},{type:image_url,image_url:{url:https://example.com/image.jpg}}]}])print(response.choices[0].message.content)4. 统一多提供商LiteLLM SDK推荐 2026 实践LiteLLM 支持 100 LLM一键切换。fromlitellmimportcompletionimportos os.environ[OPENAI_API_KEY]...os.environ[ANTHROPIC_API_KEY]...# 调用 OpenAIresponsecompletion(modelgpt-4o-mini,messages[{role:user,content:Hi!}])# 切换到 Clauderesponsecompletion(modelclaude-3-5-sonnet-20241022,messages[{role:user,content:Hi!}])print(response.choices[0].message.content)优势成本跟踪、负载均衡、日志。5. 集成框架LangChain链式/代理开发构建复杂应用。fromlangchain_groqimportChatGroqfromlangchain.promptsimportPromptTemplatefromlangchain.chainsimportLLMChain llmChatGroq(modelllama3-70b-8192,api_keyos.environ[GROQ_API_KEY])promptPromptTemplate(input_variables[topic],template解释 {topic}。)chainLLMChain(llmllm,promptprompt)print(chain.run(区块链))6. 性能优化 最佳实践优化点做法示例收益参考限速处理用 time.sleep() 或 retry 库避免封禁成本控制计算 tokenstiktoken 库用 LiteLLM 跟踪节省 20-50%错误重试pip install tenacityretry 装饰器鲁棒性 ↑监控/日志用 Langfuse 集成e.g., Groq。追踪使用安全环境变量存密钥输入过滤防注入—批量处理batch APIOpenAI 支持5-10x 快常见错误401密钥错、429限速、超时加 timeout30。本地运行用 Ollama/Hugging Face Transformers 跑开源模型无 API 费。 e.g.,from transformers import pipeline; pipe pipeline(text-generation, modelmeta-llama/Llama-3.2-3B)。7. 完整项目实战Streamlit 聊天机器人用 Groq 构建 Web UI。app.pyimportstreamlitasstfromgroqimportGroqimportos clientGroq(api_keyos.environ[GROQ_API_KEY])st.title(Groq 聊天机器人)ifmessagesnotinst.session_state:st.session_state.messages[]formessageinst.session_state.messages:withst.chat_message(message[role]):st.markdown(message[content])promptst.chat_input(说点什么)ifprompt:st.session_state.messages.append({role:user,content:prompt})withst.chat_message(user):st.markdown(prompt)withst.chat_message(assistant):streamclient.chat.completions.create(modelmixtral-8x7b-32768,messages[{role:m[role],content:m[content]}forminst.session_state.messages],streamTrue)responsest.write_stream(chunk.choices[0].delta.contentorforchunkinstream)st.session_state.messages.append({role:assistant,content:.join(response)})运行streamlit run app.py。访问 localhost:8501。扩展加历史记录、工具调用、数据库存储。8. 进阶学习路线2026 版阶段重点资源入门基本调用、流式OpenAI/Groq 官方 docs本教程中级工具/多模态、LangChainLangChain 教程Hugging Face 课程高级微调/代理、RAG“From Zero to LLM Hero” 指南 LiteLLM GitHub专家网关/观测、自定义模型Helicone/BricksLLM PyTorch 集成有具体提供商或功能想深入如 OpenAI 微调、Groq LPU 优化、Hugging Face 自定义端点告诉我我继续展开