2026/3/13 20:08:45
网站建设
项目流程
杭州网站建站公司,重庆全网推广,莱芜做网站的商家有哪些,运维工程师累吗前言
大模型的出现彻底改变了AI交互的方式#xff0c;日常聊天对话早已不是新鲜事。但要让大模型真正落地到工作场景#xff0c;解决专业问题、规避“胡言乱语”#xff0c;RAG技术无疑是核心抓手——它也是当前大模型知识问答场景中普及率最高、实用性最强的技术方案。今天…前言大模型的出现彻底改变了AI交互的方式日常聊天对话早已不是新鲜事。但要让大模型真正落地到工作场景解决专业问题、规避“胡言乱语”RAG技术无疑是核心抓手——它也是当前大模型知识问答场景中普及率最高、实用性最强的技术方案。今天就带大家从0到1吃透RAG从原理到实战一步步讲透新手也能轻松上手。RAG的概念与背景RAG全称Retrieval-Augmented Generation检索增强生成核心逻辑是为大模型“外挂知识库”通过检索外部精准信息来辅助生成回答而非让模型仅依赖自身训练数据作答。很多人会疑惑大模型本身就具备强大的生成能力为何还需要检索增强举个贴近职场的例子就懂了你问大模型“本公司2025年新修订的考勤管理制度”由于模型训练数据有时间截止线且公司内部制度属于私有知识它根本无法给出准确答案。而RAG的作用的就是当你提出这个问题时系统会先去公司内部知识库中检索对应的制度文件再将检索到的精准内容作为参考连同问题一起传给大模型让其基于真实依据生成回答彻底避免“幻觉”。RAG的过程RAG分为检索、生成两个阶段1、在线检索对用户输入进行向量化然后比较用户输入的向量与知识库向量计算语义相似性同时也可以结合关键词检索尽可能扩大召回率2、在线生成将召回的相关知识用户提问利用提示词工程调用大模型最终输出问题的答案说明1当然RAG离不开离线知识库构建将文档切片、向量化存储到向量数据库文本内容也会做存储同时标签、摘要、文件名这些元数据也可以存储丰富检索维度。2向量化是个啥简单理解就是通过向量化对文本内容做一个编码处理这样可以方便的比较文本之间的语义相似度也就是可以把和用户问题相关的文本内容给检索出来。为什么需要RAG1、大模型的知识是有时间限度的模型截止训练时间也是有空间限度的有些专业领域知识模型是没有的这些缺失的知识就会导致模型幻觉。这个时候就需要借助私有知识来弥补大模型知识的不足2、通过大模型微调也可以实现类似效果但是微调成本很高当基座大模型更新有更新或者私有知识有更新的情况又面临再次微调的问题而RAG可以随时更新知识内容RAG的改进由于生成阶段的输出依赖检索阶段的结果因此对于检索前后的优化就是RAG优化的重点。1、在检索前对问题进行改写检索后进行重排序保证最相关的结果排最前面2、Agentic RAG将RAG过程模块化可以灵活组合增加意图路由、问题的扩写、拆分上下文记忆、多路召回等复杂度更高RAG的挑战1、难于评估一个是召回率一个是生成质量2、未来方向目前主要是文本检索后续还会涉及多模态检索。以及结合agent架构的RAG比如可以在生成完成后自我评价结果根据情况进行改进。RAG的实现RAG的基础实现过程1、数据准备与清洗对word、pdf等文档进行解析并选择的合适的切片策略尽量避免不同分块语义的断裂 2、索引构建将分块后的文本调用嵌入模型embedding生成向量存入向量库可以关联元数据页码、作者、主题等信息方便后续引用、多维护检索 3、检索最基本的是向量检索同时也可以进行关键词检索从而实现混合检索检索之后还可以增加重排序 4、生成基于提示词模板让大模型基于参考文档、用户问题回答用户问题需要强调“依据参考文档无法回答则回复不知道”避免模型幻觉问题RAG具体实现方式1、dify、豆包、fastgpt、毕昇这些智能体平台直接创建知识库进行知识问答2、编码实现基于langchain、LLamaIndex等AI开发框架langchain是一个全面的AI应用开发框架相比较而言LLamaIndex主要是用于RAG应用开发。这里我们举一个langchain实现简单RAG过程的代码案例。import os# hugging face镜像设置如果国内环境无法使用启用该设置os.environ[HF_ENDPOINT] https://hf-mirror.comfrom dotenv import load_dotenvfrom langchain_community.document_loaders import UnstructuredMarkdownLoaderfrom langchain_text_splitters import RecursiveCharacterTextSplitterfrom langchain_huggingface import HuggingFaceEmbeddingsfrom langchain_core.vectorstores import InMemoryVectorStorefrom langchain_core.prompts import ChatPromptTemplatefrom langchain_deepseek import ChatDeepSeekfrom langchain_openai import ChatOpenAIload_dotenv()markdown_path test.md# 加载本地markdown文件loader UnstructuredMarkdownLoader(markdown_path)docs loader.load()print(load ok)# 文本分块text_splitter RecursiveCharacterTextSplitter(chunk_size512, chunk_overlap100)chunks text_splitter.split_documents(docs)print(split ok)# 中文嵌入模型embeddings HuggingFaceEmbeddings( model_nameBAAI/bge-small-zh-v1.5, model_kwargs{device: cpu}, encode_kwargs{normalize_embeddings: True},)print(embedding ok)# 构建向量存储vectorstore InMemoryVectorStore(embeddings)vectorstore.add_documents(chunks)print(add doc ok)# 提示词模板prompt ChatPromptTemplate.from_template( 请根据下面提供的上下文信息来回答问题。请确保你的回答完全基于这些上下文。如果上下文中没有足够的信息来回答问题请直接告知“抱歉我无法根据提供的上下文找到相关信息来回答此问题。”上下文:{context}问题: {question}回答:)# 配置大语言模型llm ChatOpenAI( # modeldeepseek-chat, modelqwen3-max-2025-09-23, temperature0.7, max_tokens4096, api_keyos.getenv(DASHSCOPE_API_KEY), base_urlos.getenv(DASHSCOPE_BASE_URL),)# 用户查询question rag的过程是什么# 在向量存储中查询相关文档retrieved_docs vectorstore.similarity_search(question, k3)docs_content \n\n.join(doc.page_content for doc in retrieved_docs)answer llm.invoke(prompt.format(questionquestion, contextdocs_content))print(answer.content)通过以上代码可以看到RAG的几个主要过程1文档加载2文本分块3分块向量化4写入数据库5内容检索6利用提示词模板调用大模型生成回复如上代码只是示例真实场景中知识库构建和问答的分开的。知识库会提前构建好然后就可以随时问答而不需要每次问答都需要文档加载分块向量化入库等操作。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2025 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取