2026/3/26 12:34:17
网站建设
项目流程
好推建站,python 做网站缺点,如何向alexa提交网站,专业手机网站公司哪家好大语言模型#xff08;LLM#xff09;是基于自监督学习预训练的深度学习模型#xff0c;训练数据量庞大、训练时间长#xff0c;并且包含大量的参数。LLM在过去两年中彻底改变了自然语言处理领域#xff0c;展现了在理解和生成类人文本方面的卓越能力。
然而#xff0c;这…大语言模型LLM是基于自监督学习预训练的深度学习模型训练数据量庞大、训练时间长并且包含大量的参数。LLM在过去两年中彻底改变了自然语言处理领域展现了在理解和生成类人文本方面的卓越能力。然而这些通用模型的开箱即用性能并不总能满足特定的业务需求或领域要求。LLM单独使用时无法回答依赖于公司专有数据或封闭环境的问题这使得它们在应用中显得相对通用。由于从零开始训练一个LLM模型需要大量的训练数据和资源这对于中小型团队来说基本不可行。因此近年来开发了多种LLM定制策略以便针对需要专业知识的不同场景调优模型。定制策略大致可以分为两种类型使用冻结模型这些技术不需要更新模型参数通常通过上下文学习或提示工程来实现。由于它们通过改变模型的行为而不需要大量训练成本因此具有成本效益广泛应用于工业界和学术界每天都有新的研究论文发表。更新模型参数这是一种相对资源密集的方法需要使用为特定目的设计的自定义数据集来调优预训练的LLM。这包括如微调Fine-Tuning和基于人类反馈的强化学习RLHF这些流行的技术。这两种定制范式进一步分化为各种专门的技术包括LoRA微调、思维链Chain of Thought、检索增强生成RAG、ReAct和Agent框架等。每种技术在计算资源、实现复杂度和性能提升方面提供了不同的优势和权衡。如何选择LLM定制LLM的第一步是选择合适的基础模型作为基准。例如Huggingface这些基于社区的平台提供了由顶级公司或社区贡献的各种开源预训练模型如Meta的Llama系列和Google的Gemini。Huggingface还提供了例如Open LLM Leaderboard这样的排行榜可以根据行业标准的指标和任务如MMLU来比较LLM。云服务提供商如AWS亚马逊和AI公司如OpenAI和Anthropic也提供访问专有模型的服务这些通常是付费服务且访问受限。选择LLM时需要考虑以下几个因素开源模型还是专有模型开源模型允许完全定制和自托管但需要技术专业知识而专有模型则提供即时访问通常可以提供更好的响应质量但成本较高。任务和指标不同的模型在不同任务上表现出色包括问答、总结、代码生成等。通过比较基准指标并在特定领域任务上进行测试来确定合适的模型。架构一般来说仅解码器模型如GPT系列在文本生成方面表现更好而编码-解码模型如T5在翻译任务上表现优秀。现在有更多的架构出现并展现出良好的结果例如专家混合模型MoEDeepSeek。参数数量和模型大小较大的模型70B-175B参数通常提供更好的性能但需要更多的计算资源。较小的模型7B-13B运行更快且更便宜但可能在能力上有所减少。在确定了基础LLM之后让我们来看一下六种最常见的LLM定制策略按资源消耗从最少到最多的顺序排列提示工程Prompt Engineering解码与采样策略Decoding and Sampling Strategy检索增强生成Retrieval Augmented GenerationAgent微调Fine Tuning基于人类反馈的强化学习Reinforcement Learning from Human Feedback提示工程提示Prompt是发送给LLM的输入文本用于引发AI生成的响应它可以由指令、上下文、输入数据和输出指示符组成。指令这是为模型如何执行任务提供的描述或指示。上下文这是外部信息用于指导模型在特定范围内进行响应。输入数据这是你希望模型生成响应的输入。输出指示符这指定了输出的类型或格式。提示工程Prompt Engineering涉及有策略地设计这些提示组件以塑造和控制模型的响应。基本的提示工程技术包括零次提示zero shot prompting、一次提示one shot prompting和少量提示few shot prompting。用户可以在与LLM互动时直接实现这些基本提示工程技术从而高效地使模型的行为与新目标对齐。API实现也是一种选择。由于提示工程的高效性和有效性人们也探索和开发出了越来越多的用于提升提示的逻辑结构的复杂方法。思维链Chain of ThoughtCoT要求LLM将复杂的推理任务分解为逐步的思维过程从而提高多步骤问题的表现。每个步骤都会明确暴露其推理结果并作为后续步骤的前置上下文直到得出最终答案。思维树Tree of ThoughtToT是CoT的扩展通过考虑多条不同的推理分支并自我评估选择决定下一步最佳行动。它对于涉及初步决策、未来策略和多种解决方案探索的任务更为有效。自动推理和工具使用Automatic Reasoning and Tool useART在CoT的基础上构建它解构复杂任务并允许模型使用预定义的外部工具如搜索和代码生成从任务库中选择少量示例。协同推理与行动Synergizing Reasoning and ActingReAct结合了推理轨迹与行动空间模型在行动空间中搜索并基于环境观察确定下一步最佳行动。像CoT和ReAct这样的技术通常与Agent工作流结合使用以增强其能力。这些技术将在接下来的Agent部分中详细介绍。解码与采样策略解码策略可以通过推理参数例如temperature、top_p、top_k在模型推理时进行控制从而决定模型响应的随机性和多样性。贪婪搜索、束搜索和采样是三种常见的自回归模型生成的解码策略。在自回归生成过程中LLM根据前一个token的条件基于候选token的概率分布逐个输出token。默认情况下使用贪婪搜索来生成概率最高的下一个token。与此不同束搜索解码会考虑多个下一个最佳token的假设并选择在整个文本序列中具有最高综合概率的假设。以下代码片段使用transformers库在模型生成过程中指定束搜索路径的数量例如num_beams5表示考虑5个不同的假设from transformers import AutoModelForCausalLM, AutoTokenizer采样策略是控制模型响应随机性的第三种方法通过调整这些推理参数温度Temperature降低温度会使概率分布变得更加尖锐从而增加生成高概率词语的可能性减少生成低概率词语的可能性。当温度 0 时相当于贪婪搜索最不具创意当温度 1 时会生成最具创意的输出。Top K采样这种方法筛选出K个最可能的下一个token并在这些token之间重新分配概率。模型从这个筛选出的token集合中进行采样。Top P采样与从K个最可能的token中采样不同top-p采样从最小的token集合中选择该集合的累积概率超过阈值p。以下示例代码片段从累积概率大于0.95top_p0.95的前50个最可能的token中进行采样top_k50sample_outputs model.generate(RAG检索增强生成Retrieval Augmented Generation简称RAG最初在论文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》中提出已被证明是一种有前景的解决方案能够将外部知识集成进来并在处理领域特定或专业查询时减少常见的LLM幻觉问题。RAG允许动态地从知识领域中提取相关信息并且通常不涉及更新LLM参数的大规模训练使其成为一种用于将通用LLM适配到特定领域的成本效益高的策略。RAG系统可以分为检索和生成两个阶段。检索过程的目标是通过对外部知识进行切块、创建嵌入、索引和相似性搜索找到与用户查询密切相关的知识库内容。切块Chunking将文档划分为较小的段落每个段落包含一个独立的信息单元。创建嵌入Create embeddings嵌入模型将每个信息块压缩为向量表示。用户查询也通过相同的向量化过程转换为向量表示这样用户查询就可以在相同的维度空间中进行比较。索引Indexing这一过程将这些文本块及其向量嵌入存储为键值对从而实现高效且可扩展的搜索功能。对于超出内存容量的大型外部知识库向量数据库提供高效的长期存储。相似性搜索Similarity search计算查询嵌入与文本块嵌入之间的相似性分数用于搜索与用户查询高度相关的信息。RAG系统的生成过程则将检索到的信息与用户查询结合形成增强的查询并将其传递给LLM以生成丰富上下文的响应。以下代码片段首先指定LLM和嵌入模型然后执行步骤将外部知识库文档切块为文档集合。接着从文档创建索引基于索引定义查询引擎并使用用户提示查询查询引擎。from llama_index.llms.openai import OpenAI上述示例展示了一个简单的RAG系统。基于此改进后的高级RAG引入了预检索和后检索策略以减少检索和生成过程之间的协同作用有限等问题。例如重新排序技术使用能够理解双向上下文的模型对检索到的信息进行重新排序并与知识图谱集成用于高级查询路由。AgentLLM Agent是2024年的热门话题并且可能在2025年继续成为生成AI领域的主要关注点。与RAG相比Agent在创建查询路径和规划基于LLM的工作流方面表现更为出色具有以下优势维护先前模型生成响应的记忆和状态。根据特定标准利用各种工具。这种工具使用能力使得Agent与基本的RAG系统不同因为它赋予LLM独立选择工具的控制权。将复杂任务分解为更小的步骤并规划一系列动作。与其他Agent协作形成一个协调的系统。可以通过Agent框架实现如CoT、ReAct这几种上下文学习技术我们将详细讨论ReAct。ReAct代表Synergizing Reasoning and Acting in Language Models在语言模型中协同推理与行动由三个关键元素组成——行动、思考和观察。这个框架由Google Research在普林斯顿大学提出基于思维链Chain of Thought构建将推理步骤与一个行动空间结合使得工具使用和函数调用成为可能。此外ReAct框架强调根据环境观察来确定下一个最佳行动。以下是原始论文中的一个示例展示了ReAct的内部工作过程其中LLM生成第一个思考并通过调用“Search [Apple Remote]”函数进行行动然后观察其第一次输出的反馈。第二个思考基于先前的观察从而引导到不同的行动“Search [Front Row]”。这个过程会反复进行直到达到目标。研究表明ReAct通过与简单的Wikipedia API交互克服了在链式推理中常见的幻觉和错误传播问题。此外通过决策痕迹的实施ReAct框架还增强了模型的可解释性、可信度和诊断能力。下面使用llamaindex展示了一个基于ReAct的Agent实现。首先它定义了两个函数multiply和add。其次这两个函数被封装为FunctionTool形成了Agent的行动空间并根据其推理执行。from llama_index.core.agent import ReActAgent当结合自我反思或自我修正时Agent工作流的优势更加显著。这是一个日益增长的领域目前正在探索各种Agent架构。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2026 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2026 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”