2026/2/28 1:31:54
网站建设
项目流程
十大博客网站,做个简单的网站多少钱,建材企业网站推广,id设计一、LLMs 已经具备了较强能力了#xff0c;为什么还需要 RAG(检索增强生成)?
尽管 LLM 已展现出显著的能力#xff0c;但以下几个挑战依然值得关注#xff1a;
幻觉问题#xff1a;LLM 采用基于统计的概率方法逐词生成文本#xff0c;这一机制内在地导致其可能出现看似…一、LLMs 已经具备了较强能力了为什么还需要 RAG(检索增强生成)?尽管 LLM 已展现出显著的能力但以下几个挑战依然值得关注幻觉问题LLM 采用基于统计的概率方法逐词生成文本这一机制内在地导致其可能出现看似逻辑严谨实则缺乏事实依据的输出即所谓的“郑重其事的虚构陈述”时效性问题随着 LLM 规模扩大训练成本与周期相应增加。鉴于此包含最新信息的数据难以融入模型训练过程导致 LLM 在应对诸如“请推荐当前热门影片”等时间敏感性问题时力有未逮数据安全问题通用的 LLM 没有企业内部数据和用户数据那么企业想要在保证安全的前提下使用 LLM最好的方式就是把数据全部放在本地企业数据的业务计算全部在本地完成。而在线的大模型仅仅完成一个归纳的功能二、介绍一下 RAG?RAGRetrieval Augmented Generation, 检索增强生成是一种技术框架其核心在于当 LLM 面对解答问题或创作文本任务时首先会在大规模文档库中搜索并筛选出与任务紧密相关的素材继而依据这些素材精准指导后续的回答生成或文本构造过程旨在通过此种方式提升模型输出的准确性和可靠性。RAG 技术架构图三、RAG 主要包含哪些模块?模块一版面分析本地知识文件读取pdf、txt、html、doc、excel、png、jpg、语音等知识文件复原模块二知识库构建知识文本分割并构建Doc文本Doc文本 embeddingDoc文本 构建索引模块三大模型微调模块四基于RAG的知识问答用户query embeddingquery 召回query 排序将 Top K 个相关的 Doc 进行拼接构建 context基于 query 和 context 构建 Prompt将 prompt 喂给大模型生成答案四、RAG 相较于直接使用 LLMs进行问答 有哪些优点?RAG检索增强生成方法赋予了开发者无需为每个特定任务重新训练大型模型的能力仅需连接外部知识库即可为模型注入额外的信息资源从而显著提升其回答的精确度。这一方法尤其适用于那些高度依赖专业知识的任务。以下是 RAG 模型的主要优势可扩展性减小模型规模及训练开销同时简化知识库的扩容更新过程。准确性通过引用信息源用户能够核查答案的可信度进而增强对模型输出结果的信任感。可控性支持知识内容的灵活更新与个性化配置。可解释性展示模型预测所依赖的检索条目增进理解与透明度。多功能性RAG 能够适应多种应用场景的微调与定制涵盖问答、文本摘要、对话系统等领域。时效性运用检索技术捕捉最新信息动态确保回答既即时又准确相比仅依赖固有训练数据的语言模型具有明显优势。领域定制性通过对接特定行业或领域的文本数据集RAG 能够提供针对性的专业知识支持。安全性通过在数据库层面实施角色划分与安全管控RAG 有效强化了对数据使用的管理相较于微调模型在数据权限管理上的潜在模糊性展现出更高的安全性。五、对比一下 RAG 和 SFT说一下两者有哪些区别实际上对于 LLM 存在的上述问题SFT 是一个最常见最基本的解决办法也是 LLM 实现应用的基础步骤。那么有必要在多个维度上比较一下两种方法当然这两种方法并非非此即彼的合理且必要的方式是结合业务需要与两种方法的优点合理使用两种方法。模块一版面分析为什么 需要 版面分析尽管RAG检索增强生成技术的核心价值在于其结合检索与生成手段以提升文本内容的精确度与连贯性然而在一些具体应用领域如文档解析、智能化写作及对话系统构建中特别是在面对结构化或半结构化信息的处理需求时其功能边界可能拓展至版面分析。这是由于此类信息往往嵌于特定的布局结构中需要对页面元素及其相互关系进行深入理解。此外当RAG模型面对包含丰富多媒体或多模态成分的数据源诸如网页、PDF文件、富文本记录、Word文档、图像资料、语音片段、表格数据等复杂内容时为了能高效地摄取并利用这些非文本信息具备基本的版面分析能力变得至关重要。这种能力有助于模型精准解析各类信息单元并成功将它们融合成有意义的整体解读。step 1本地知识文件获取q1如何进行 本地知识文件获取本地知识文件获取涉及从多种数据源如.txt、.pdf、.html、.doc、.xlsx、.png、.jpg、音频文件等提取信息的过程。针对不同类型的文件需要采取特定的访问与解析策略来有效获取其中蕴含的知识。下面我们将介绍对于不同数据源数据的获取方式和难点。q2如何获取 富文本txt 中内容介绍富文本 主要存储于 txt 文件中因为排版比较整洁所以获取方式比较简单实战技巧【版面分析——富文本txt读取】q3如何获取 PDF文档 中内容介绍PDF文档中数据比较复杂包含文本、图片、表格等不同样式的数据所以解析过程中会比较复杂实战技巧【版面分析——PDF 解析神器 pdfplumber】【版面分析——PDF 解析神器 PyMuPDF】q4如何获取 HTML文档 中内容介绍PDF文档中数据比较复杂包含文本、图片、表格等不同样式的数据所以解析过程中会比较复杂实战技巧【版面分析——网页HTML解析 BeautifulSoup】q5如何获取 Doc文档 中内容介绍Doc文档中数据比较复杂包含文本、图片、表格等不同样式的数据所以解析过程中会比较复杂实战技巧【版面分析——Docx 解析神器 python-docx】q6如何使用 OCR 获取图片内容介绍光学字符识别Optical Character Recognition, OCR是指对文本资料的图像文件进行分析识别处理获取文字及版面信息的过程。亦即将图像中的文字进行识别并以文本的形式返回。思路文字识别对定位好的文字区域进行识别主要解决的问题是每个文字是什么将图像中的文字区域进转化为字符信息。文字检测解决的问题是哪里有文字文字的范围有多少目前开源的OCR项目TesseractPaddleOCREasyOCRchineseocrchineseocr_liteTrWebOCRcnocrhn_ocr理论学习【版面分析——图片解析神器 OCR】实战技巧【版面分析——OCR神器 tesseract】【版面分析——OCR神器 PaddleOCR】【版面分析——OCR神器 hn_ocr】q7如何使用 ASR 获取语音内容别称自动语音识别AutomaTlc Speech RecogniTlon(ASR)介绍将一段语音信号转换成相对应的文本信息好比机器的听觉系统”它让机器通过识别和理解把语音信号转变为相应的文本或命令。目标将人类的语音中的词汇内容转换为计算机可读的输入eg:按键、二进制编码或者字符序列思路声学信号预处理为了更有效地提取特征往往还需要对所采集到的声音信号进行滤波、分帧等预处理工作把要分析的信号从原始信号中提取出来特征提取将声音信号从时域转换到频域为声学模型提供合适的特征向量;声学模型根据声学特性计算每一个特征向量在声学特征上的得分;语言模型根据语言学相关的理论计算该声音信号对应可能词组序列的概率;字典与解码根据已有的字典对词组序列进行解码得到最后可能的文本表示理论教程【版面分析 之 语音识别】实战技巧【版面分析 之 Speech-to-Text】【版面分析 之 WeTextProcessing】【版面分析——ASR神器 Wenet】【版面分析 之 ASR神器训练】step 2知识文件复原q1为什么需要进行 知识文件复原本地知识文件获取包含对多源化数据txt、pdf、html、doc、excel、png、jpg、语音等进行读取之后容易将一个多行段落分割成多个段落从而导致段落遇到被分割所以需要根据内容逻辑重新组织段落。q2如何对 知识文件进行复原方法一基于规则的知识文件复原方法二基于 Bert NSP 进行上下句拼接step 3版面分析———优化策略篇理论学习【版面分析———优化策略篇】step 4Homework任务描述使用上述方法对 【SMP 2023 ChatGLM金融大模型挑战赛】的 【ChatGLM评估挑战赛-金融赛道数据集】进行版面分析任务效果分析各种方法效果和性能模块二知识库构建为什么 需要 知识库构建在RAGRetrieval-Augmented Generation中构建知识库是至关重要的原因包括但不限于以下几点扩展模型能力大规模语言模型如GPT系列虽然具有强大的语言生成和理解能力但受限于训练数据集的覆盖范围它们可能无法准确回答一些基于特定事实或详细背景信息的问题。通过构建知识库RAG可以补充模型自身的知识局限性允许模型检索到最新、最准确的信息来生成答案。实时更新信息知识库可以实时更新和扩充确保模型能够获取最新的知识内容这对于处理时效性强的信息尤为关键比如新闻事件、科技进展等。提高准确性RAG结合了检索与生成两个过程在生成回答前先检索相关文档从而提高了回答问题时的准确性。这样模型生成的答案不仅基于其内部参数化的知识还基于外部可靠来源的知识库。减少过拟合与hallucination幻觉生成大模型有时会因为过度依赖内在模式而出现hallucination现象即生成看似合理实则无依据的答案。通过引用知识库中的确切证据RAG可以降低此类错误产生的可能性。增强可解释性RAG不仅能提供答案还能指出答案的来源增强了模型生成结果的透明度和可信度。支持个性化及私有化需求对于企业或个人用户可以通过构建专属知识库满足特定领域或私人定制的需求使得大模型能更好地服务于特定场景和业务。综上所述构建知识库对于RAG模型来说是实现高效准确地检索并生成答案的核心机制之一它极大地提升了模型在实际应用中的性能和可靠性。step 1知识文本分块为什么需要对文本分块信息丢失的风险试图一次性提取整个文档的嵌入向量虽然可以捕捉到整体的上下文但也可能会忽略掉许多针对特定主题的重要信息这可能会导致生成的信息不够精确或者有所缺失。分块大小的限制在使用如OpenAI这样的模型时分块大小是一个关键的限制因素。例如GPT-4模型有一个32K的窗口大小限制。尽管这个限制在大多数情况下不是问题但从一开始就考虑到分块大小是很重要的。主要考虑两个因素embedding模型的Tokens限制情况语义完整性对整体的检索效果的影响实战技巧【知识库构建——知识文本分块】【知识库构建——文档切分优化策略篇】step 2Docs 向量化embdeeingq1什么是Docs 向量化embdeeingEmbedding 也是文本语义含义的信息密集表示每个嵌入都是一个浮点数向量使得向量空间中两个嵌入之间的距离与原始格式中两个输入之间的语义相似性相关联。例如如果两个文本相似则它们的向量表示也应该相似这一组向量空间内的数组表示描述了文本之间的细微特征差异。简单来说Embedding 帮助计算机来理解如人类信息所代表的“含义”Embedding 可以用来获取文本、图像、视频、或其他信息的特征“相关性”这种相关性在应用层面常用于搜索、推荐、分类、聚类。q2Embedding 是如何工作的举例来讲这里有三句话“The cat chases the mouse” “猫追逐老鼠”“The kitten hunts rodents” 小猫捕猎老鼠。“I like ham sandwiches” 我喜欢火腿三明治。如果是人类来将这三个句子来分类句子 1 和句子 2 几乎是同样的含义而句子 3 却完全不同。但我们看到在英文原文句子中句子 1 和句子 2 只有“The”是相同的没有其他相同词汇。计算机该如何理解前两个句子的相关性Embedding 将离散信息单词和符号压缩为分布式连续值数据向量。如果我们将之前的短语绘制在图表上它可能看起来像这样在文本被 Embedding 压缩到计算机可以理解的多维向量化空间之后由于句子 1 和 2 的含义相似它们会被绘制在彼此附近。句子 3 却距离较远因为它与它们没有关联。如果我们有第四个短语 “Sally 吃了瑞士奶酪”它可能存在于句子 3奶酪可以放在三明治上和句子 1老鼠喜欢瑞士奶酪之间的某个地方。q3Embedding 的语义检索方式对比关键词检索的优势语义理解基于 Embedding 的检索方法通过词向量来表示文本这使得模型能够捕捉到词汇之间的语义联关系相比之下基于关键词的检索往往关注字面匹配可能忽略了词语之间的语义联系。容错性由于基于 Embedding 的方法能够理解词汇之间的关系所以在处理拼写错误、同义词、近义词等情况时更具优势。而基于关键词的检索方法对这些情况的处理相对较弱。多语言支持许多 Embedding 方法可以支持多种语言有助于实现跨语言的文本检索。比如你可以用中文输入来查询英文文本内容而基于关键词的检索方法很难做到这一点。语境理解基于 Embedding 的方法在处理一词多义的情况时更具优势因为它能够根据上下文为词语赋予不同的向量表示。而基于关键词的检索方法可能无法很好地区分同一个词在不同语境下的含义。q4Embedding检索存在哪些限制?输入词数限制即便借助Embedding技术选取与查询最为匹配的文本片段供大型模型参考词汇数量的约束依然存在。当检索覆盖的文本范围广泛时为了控制注入模型的上下文词汇量通常会对检索结果设定TopK的阈值K但这不可避免地引发了信息遗漏的问题。仅支持文本数据现阶段的GPT-3.5及诸多大型语言模型尚不具备图像识别功能然而在知识检索过程中许多关键信息往往依赖于图文结合来充分理解。例如学术论文中的示意图、财务报告中的数据图表仅凭文本难以精准把握其内涵。大模型的胡编乱造当检索到的相关文献资料不足以支撑大型模型准确回答问题时为尽力完成响应模型可能会出现一定程度的“即兴创作”即在有限信息基础上进行推测与补充。理论学习【知识库构建—Doc 向量化】实战技巧【Docs向量化——腾讯词向量】【Docs向量化——sbert】【Docs向量化——SimCSE】【Docs向量化——text2vec】【Docs向量化——SGPT】【Docs向量化——BGE —— 智源开源最强语义向量模型】【Docs向量化——M3E一种大规模混合embedding】step 3Docs 构建索引介绍实战技巧【Docs构建索引——Faiss】【Docs构建索引——milvus】【Docs构建索引—— Elasticsearch】模块三大模型微调为什么 需要 大模型微调通常要对大模型进行微调有以下一些原因第一个原因是因为大模型的参数量非常大训练成本非常高每家公司都去从头训练一个自己的大模型这个事情的性价比非常低第二个原因是Prompt Engineering的方式是一种相对来说容易上手的使用大模型的方式但是它的缺点也非常明显。因为通常大模型的实现原理都会对输入序列的长度有限制Prompt Engineering 的方式会把Prompt搞得很长。越长的Prompt大模型的推理成本越高因为推理成本是跟Prompt长度的平方正向相关的。另外Prompt太长会因超过限制而被截断进而导致大模型的输出质量打折口这也是一个非常严重的问题。对于个人使用者而言如果是解决自己日常生活、工作中的一些问题直接用Prompt Engineering的方式通常问题不大。但对于对外提供服务的企业来说要想在自己的服务中接入大模型的能力推理成本是不得不要考虑的一个因素微调相对来说就是一个更优的方案。第三个原因是Prompt Engineering的效果达不到要求企业又有比较好的自有数据能够通过自有数据更好的提升大模型在特定领域的能力。这时候微调就非常适用。第四个原因是要在个性化的服务中使用大模型的能力这时候针对每个用户的数据训练一个轻量级的微调模型就是一个不错的方案。第五个原因是数据安全的问题。如果数据是不能传递给第三方大模型服务的那么搭建自己的大模型就非常必要。通常这些开源的大模型都是需要用自有数据进行微调才能够满足业务的需求这时候也需要对大模型进行微调。如何对大模型进行微调q1大模型的微调技术路线问题从参数规模的角度大模型的微调分成两条技术路线技术路线一对全量的参数进行全量的训练这条路径叫全量微调FFT(Full Fine Tuning)。技术路线二只对部分的参数进行训练这条路径叫PEFT(Parameter-Efficient Fine Tuning)。q2大模型的全量微调FFT 技术存在哪些问题FFT也会带来一些问题影响比较大的问题主要有以下两个问题一训练的成本会比较高因为微调的参数量跟预训练的是一样的多的问题二灾难性遗忘(Catastrophic Forgetting)用特定训练数据去微调可能会把这个领域的表现变好但也可能会把原来表现好的别的领域的能力变差。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】