小游戏网站怎么做建站?a品定制网站开发
2026/1/8 1:56:12 网站建设 项目流程
小游戏网站怎么做建站,?a品定制网站开发,百度搜索推广的五大优势,上传网站中ftp地址写什么简介 本文详细指导零基础用户如何使用RAGFlow开源检索增强生成引擎#xff0c;结合大模型LLM#xff0c;在本地快速搭建RAG知识库、智能搜索问答系统、Agent智能助手等应用。文章涵盖系统架构、环境配置、模型设置、知识库构建、专属聊天助理创建、智能搜索实现、Agent开发以…简介本文详细指导零基础用户如何使用RAGFlow开源检索增强生成引擎结合大模型LLM在本地快速搭建RAG知识库、智能搜索问答系统、Agent智能助手等应用。文章涵盖系统架构、环境配置、模型设置、知识库构建、专属聊天助理创建、智能搜索实现、Agent开发以及常见问题解决方案是学习RAG技术和大模型应用的实用指南。本文主要围绕 RAGFlow 的构建知识库、搜索、Agent、文件管理等核心应用功能模块结合大模型 LLM零基础如何实现在本地快速搭建RAG专属知识库、智能搜索问答系统、Agent智能助手应用以及RAGFlow 在应用过程中的常见问题与解决方案。一、RAGFlow 简介RAGFlow 是一个开源的检索增强生成RAG引擎其核心价值定位旨在高效地连接用户查询与知识库通过检索相关文档片段并结合大语言模型LLM生成精准、上下文相关的回答。二、RAGFlow 系统架构三、检查 RAGFlow 运行健康状态在应用RAGFlow之前我们需要先确保RAGFlow相关容器均已正常Up启起来了且显示health健康状态。在终端界面检查RAGFlow运行健康状态可执行命令行如下sudo docker ps -a | grep ragflow如下图所示实时查看 RAGFlow 运行日志的最后200行详情可执行命令行如下sudo docker logs -f ragflow-server --tail 200此时当我们成功登录 RAGFlow 后就会自动跳转到如下界面由上图可见RAGFlow 的顶部导航菜单栏是其核心功能入口集中展示了四大关键应用模块知识库、搜索、Agent、文件管理。知识库主要是用于管理和展示已构建的知识库列表其功能定位为企业级知识资产的管理中心支撑 RAG 系统的数据基础。搜索精准检索引擎连接用户查询与知识库内容的桥梁。Agent自动化任务执行器基于知识库数据生成结构化输出或执行操作。文件管理数据生命周期管理保障知识库数据的可追溯性与安全性。四、默认模型设置在应用 RAGFlow 之前我们必须添加和设置默认的大模型 LLM 配置信息以便在后续的 RAGFlow 应用过程中可以选择加载所需的模型。具体操作如下步骤1登录成功后先点击右上角“头像”如下图步骤2点击“模型供应商”选择Ollama如下图步骤3添加模型具体如下图其中模型配置参数说明如下模型类型chat表示是聊天模型。RAGFlow支持的模型类型有1聊天模型Chat所有新创建的知识库都会使用默认的聊天模型。2嵌入模型Embedding所有新创建的知识库使用的默认嵌入模型。如未显示可选模型请检查你是否在使用 RAGFlow slim 版(不含嵌入模型)。3Img2txt模型Img2txt所有新创建的知识库都将使用默认的 img2txt 模型。 它可以描述图片或视频。4Speech2txt模型Speech2txt所有新创建的知识库都将使用默认的 ASR 模型。 使用此模型将语音翻译为相应的文本。5Rerank模型Rerank重排序模型是检索增强生成RAG系统中的核心组件用于对初步检索到的文档片段如向量检索返回的Top-K结果进行二次精准排序筛选出与用户查询最相关的内容。其目标是提升最终输入给大语言模型LLM的上下文质量从而优化生成答案的准确性和相关性。6TTS模型TTS默认的tts模型会被用于在对话过程中请求语音生成时使用。模型名称这里配置为 deepseek-r1:1.5b注意必须与执行命令行 ollama list 输出的大模型名称Name保持一致。具体查看ollama已安装的大模型列表如下图所示基础Url因为此处选择了模型提供商Ollama所以这里配置为在局域网内Ollama访问地址默认端口11434即http://${IP_OF_OLLAMA_MACHINE}:11434或者http://${IP_OF_OLLAMA_MACHINE}:11434/v1。API-KeyAPI访问密钥。在局域网内使用时可以忽略。最大token数取值512。大模型的最大token数的配置主要依据以下因素1模型特性不同模型支持的最大token数不同。例如GPT-4支持约1047576个token而其他模型可能限制在2048或更少。2任务需求长文档处理处理长文本如论文、书籍时需增大token数以保留上下文建议设置为512-2048。实时响应对响应速度要求高的场景应减小token数以提升效率。3性能与成本平衡更大的token数会增加计算资源消耗和成本。需根据硬件条件和预算调整避免资源浪费。4分块策略文档分块时token数影响分块粒度。例如学术论文建议512-768法律文档建议256-512。5实际测试与优化通过实验确定最佳token数观察对模型输出质量和性能的影响进行动态调整。在RAGFlow中模型默认的最大 answer token数取决于具体的模型配置。常见的设置如下通用模型默认的answer token数通常为512。长文本处理模型可能会设置更高的数值如1024或2048。特定模型配置某些模型可能有预设的最大token数例如GPT-4约10475761。其他模型如2048或更少。总之RAGFlow的token数配置需综合模型能力、任务需求、性能成本等多方面因素以实现最佳效果。是否支持Vision这里设置否。在检索增强生成RAG系统中Vision 通常指以下两类能力1图像内容理解Image Understanding功能让 AI 系统能“看懂”图像内容例如----识别图片中的物体、文字、场景如识别发票金额、产品型号。----理解图表信息如从流程图中提取步骤。技术依赖----OCR光学字符识别提取图像中的文字如 Tesseract、百度 OCR。----多模态大模型直接理解图像语义如 GPT-4V、Claude 3、LLaVA。2跨模态检索Multimodal Retrieval功能支持用 文本查询检索图像或用 图像查询检索文本/图像。示例用户上传一张电路板照片系统返回知识库中相关的维修手册文本。技术依赖----多模态嵌入模型将图像和文本映射到同一向量空间如 OpenAI CLIP、ViT-BERT。----多模态向量数据库支持存储和检索图像向量如 Milvus、Qdrant 的多模态扩展。小伙伴们还可以点击上图中的模型配置界面的左下角处“如何集成Ollama”具体查看RAGFlow官方提供的相关内容。同理我们可添加其他模型提供商和大模型 LLM如下图所示RAGFlow支持的大模型完整清单列表具体如下图所示由上图可见 目前仅有模型提供商 Tongyi-Qianwen 和 Xinference均已支持 RAGFlow的Chat、Embedding、Rerank、Img2txt、Speech2txt、TTS 这六种类型的大模型。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】备注OpenAI-API-CompatibleOpenAI API 兼容性不是一个具体的软件或工具而是一套接口规范和约定。它规定了应用程序应该如何向一个AI服务发送请求以及该服务应该如何返回响应其格式与 OpenAI 官方的 API 完全一致。Xinference 是一个开源的分布式模型推理框架专注于本地化部署高性能模型服务作为 RAGFlow 的“模型引擎”提供 LLM、Embedding、Rerank 等模型的本地化推理能力是企业构建私有化 RAG 系统的理想选择。步骤4设置默认模型在添加了模型提供商及其模型配置项之后点击右上角处的“设置默认模型”即可随时选择或者变更切换 RAGFlow 默认使用的大模型 LLM如下图所示**1.构建本地RAG专属知识库这里以构建一个自定义名称为“设计模式”的本地RAG专属知识库为例来演示说明。步骤1创建知识库在点击顶部 “知识库” 菜单栏后接着点击右侧“构建知识库”菜单项输入自定义的知识库名称如下图所示步骤2上传文档添加上传本地文件如下图所示在这里为了演示方便我们将提前准备好的一份PDF文档名称为“java设计模式.pdf”鼠标点击方框区域内选中目标文档即可自动上传。上传成功后我们会看到在下图中有一个绿色的小三角图标它就是“解析”按钮。步骤3知识库配置在点击“解析”按钮之前我们需要先对准备构建的本地专属RAG知识库进行配置这主要是为了预先设置告诉 RAGFlow你具体将如何解析处理用户上传的文档数据包括PDF解析器、嵌入模型、切片方法、文本分段标识等关键点。如果对上述这些关键点的用途不清楚的小伙伴也不用担心哈我们只需把鼠标悬放到对应的问号小图标上即可看到相应的提示说明如下图所示步骤4解析在上述配置完毕后我们就可以点击“解析”按钮此时会弹出一个“操作成功”的提示RAGFlow 就正式开始处理上传的文档了。具体如下图所示此时我们把鼠标悬放在“解析进度”上就可以实时查看解析日志见下图当然我们也可以实时查看 RAGFlow 后台运行日志的最后200行详情执行命令行如下sudo docker logs -f ragflow-server --tail 200查看解析处理过程的详情日志内容如下图所示等待文档解析处理完毕后解析状态就会出现“成功”标志如下图所示步骤5检索测试当解析成功后我们就可以进行检索测试初步验证 RAGFlow 配置参数的实际效果如何效果如下图所示如上图可见我们搜索“单例模式”成功检索到了相关的文档片段看起来效果还可以。需要注意的是如果检索测试的效果不佳比如返回的检索结果与查询内容驴头不对马嘴严重不相关的话则需要及时重新返回到 步骤3 进行调参。至此我们已成功构建了一个本地RAG专属知识库——设计模式搞定接下来我们就可以在 RAGFlow 的搜索、聊天、Agent 应用模块中正式使用本地RAG专属知识库啦。。。2.知识库专属聊天助理要实现一个知识库专属聊天助理非常简单具体如下首先点击 RAGFlow 应用页面顶部导航菜单栏中的“聊天”接着点击左侧的“新建助理”按钮然后点击“编辑”开始为你的知识库配置专属聊天助理。步骤1编辑步骤2助理设置注意在最下面的“知识库”选项中选择我们在前面已构建成功的本地RAG专属知识库——设计模式。步骤3提示引擎步骤4模型设置至此点击“确定”即可。步骤5新建聊天点击“新建助理”右侧的加号小图标即可开启一个聊天会话窗口。此时我们尝试输入一个简单的问题“什么是设计模式”看看本地知识库专属聊天助理的实际效果如何。应用效果如下图所示由上图可见这个本地RAG知识库专属聊天助理在回答问题思考时确实有使用到本地知识库——设计模式里的内容。至此基于本地RAG知识库的专属聊天助理已搞定接下来让我们看看 RAGFlow 的智能搜索问答系统的表现如何吧。3.智能搜索问答系统步骤1输入搜索关键词我们点击顶部导航栏中的“搜索”菜单项确保左侧已勾选了本地RAG知识库——设计模式此时我们提出相同的一个问题什么是设计模式点击“搜索”图标如下图所示步骤2查看检索结果检索结果如下显而易见智能搜索问答系统不仅结合本地RAG知识库给出了回答并且提供了具体引用的知识库文档内容片段已基本符合知识库检索预期。步骤3查看思维导图此时我们可以点击右侧“思维导图”看看效果如何如下图所示由上图可见思维导图虽然成功自动生成了但是思维导图内容与搜索结果内容严重不符哈哈哈翻车现场。。。其实这是很典型的检索阶段的相关性偏差问题具体问题表现为思维导图包含大量低相关甚至无关内容。其原因可能有以下几点1Embedding 模型不匹配通用模型如 text-embedding-ada-002对专业术语如医疗、法律理解不足检索到错误片段。2Rerank 模型失效未启用 Rerank 或模型选择不当如用轻量模型处理复杂查询导致噪声片段未被过滤。3混合检索未配置仅依赖向量检索忽略关键词匹配如用户搜索“API 调用失败”但向量检索返回“API 设计原则”。很显然大概率是因为我们未启用Rerank模型选项所导致的。Rerank模型负责二次精排显著提升相关性。rerank 模型为非必选项若不选择 rerank 模型系统将默认采用关键词相似度与向量余弦相似度相结合的混合查询方式如果设置了 rerank 模型则混合查询中的向量相似度部分将被 rerank 打分替代。请注意采用 rerank 模型会非常耗时。如需选用 rerank 模型建议使用 SaaS 的 rerank 模型服务如果你倾向使用本地部署的 rerank 模型请务必确保你使用 docker-compose-gpu.yml 启动 RAGFlow。接下来让我们赶快看看 RAGFlow 的Agent智能助手如何应用吧。4.Agent 智能助手步骤1创建Agent首先我们选中顶部导航栏中的“Agent”菜单项点击右上角的“Create Agent”如下图所示接着我们选择 RAGFlow 内置的一个基于知识库检索问答Agent模版如下图所示点击Agent版本输入Agent名称比如test即可自动创建出来一个Agent。基于该 Agent 模板我们稍加修改开始节点编排如下图所示点击加号即可添加选择任意一个新节点如下图所示搜索Agent编排如下图所示检索本地知识库编排如下图所示除了在上图中添加本地已构建的专属知识库——设计模式以外我们再尝试添加一个Github网站搜索工具并设置高级参数如下图所示然后在右上角顶部的点击“保存”按钮。此时就可以点击“运行”开始尝试运行Agent应用啦。。。在右下角我们输入提示词什么是设计模式按Enter回车键 或者 点击右下角的“搜索”小箭头图标看看Agent表现效果如何具体如下图所示在running…的紧挨着的上方右侧第一个“笔记本”小图标按支持点击查看Agent实时运行日志Log如下图所示温馨提示关于 Agent 节点即大模型 LLM的系统提示词小伙伴们可以根据各自需求自定义编写哈这里我建议大家可以先参考一些开源的系统提示词 Prompt 模版等自己熟练掌握了系统提示词 Prompt 之后自己再按照自己的想法来自由编写。简而言之我们要站在巨人的肩膀上先模仿再超越嘛切忌闭门造车5.文件管理文件管理应用模块主要是用于下载和预览已经上传的文件资料。点击上图中“操作”这一列下面的小眼睛图标即可支持在线预览已上传的文件内容如下图我们可以清楚的看到已上传解析处理的《java设计模式》pdf文档共计有415页。6.常见问题与解决方案问题1RAGFlow 登录报错502Bad Gateway如下图所示原因分析502状态码Bad Gateway是一种HTTP协议的服务端错误状态代码表示作为网关或代理的服务器从上游服务器接收到的响应无效。这说明RAGFlow有个Base基础服务没有成功启动我们需要检测一下后端是否正常。解决方案进入docker目录下重启执行安装基础服务命令行如下sudo docker-compose -f docker-compose-base.yml --profile infinity up -d其中使用 --profile infinity参数时只有里配置了infinity配置文件的服务会被启动。具体如下图所示问题2构建知识库时上传文档在解析过程中报错Page(109~121): [ERROR]Generate embedding error:Function ‘batch_encode’ timed out after 5 seconds and 2 attempts.如下图所示原因分析从错误信息来看batch_encode 函数在尝试生成嵌入时超时了。这可能是由于处理的数据量较大或者函数本身的性能问题导致的。解决方案在“切片方法”中结合硬件性能适当调小“任务页面大小”数值。这里我设置为1成功解决了该问题。小伙伴们可供参考。关于General 分块方法说明支持的文件格式为MD、MDX、DOCX、XLSX、XLS (Excel 97-2003)、PPT、PDF、TXT、JPEG、JPG、PNG、TIF、GIF、CSV、JSON、EML、HTML。此方法将简单的方法应用于块文件系统将使用视觉检测模型将连续文本分割成多个片段。接下来这些连续的片段被合并成Token数不超过“Token数”的块。关于“任务页面大小”参数说明如果使用布局识别PDF 文件将被分成连续的组。 布局分析将在组之间并行执行以提高处理速度。 “任务页面大小”决定组的大小。 页面大小越大将页面之间的连续文本分割成不同块的机会就越低。当然GitHub官网上关于该问题也有一些其他的解决方案可供小伙伴们参考具体如下图所示7.小结本文带领小伙伴们一起初步探索体验了 RAGFlow 的强大功能。总体而言RAGFlow 是一个开源的检索增强生成RAG引擎目前已构建提供了一个轻量级且相对完整的AI应用框架通过知识库管理、智能搜索、Agent编排、文件处理四大核心模块实现企业级知识驱动应用。其架构融合向量检索、Rerank重排序与LLM生成精准匹配用户查询与知识库内容支持多模态文档解析与自定义工作流。通过优化检索-生成链路显著提升答案准确率、降低幻觉并保障数据安全与可扩展性适用于智能客服、文档分析等场景。当然RAGFlow 仍有提升空间一是内置的工具插件与 Agent 模板数量还不够丰富二是Agent编排界面的操作便捷性相较于Dify工作流编排稍显逊色。当然每个产品定位和在不同发展阶段各有侧重点RAGFlow 当前的核心优势在于构建知识库并深度结合大模型如DeepSeek-R1生成精准、上下文相关的回答。如何学习AI大模型如果你对AI大模型入门感兴趣那么你需要的话可以点击这里大模型重磅福利入门进阶全套104G学习资源包免费分享这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】这是一份大模型从零基础到进阶的学习路线大纲全览小伙伴们记得点个收藏第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。100套AI大模型商业化落地方案大模型全套视频教程200本大模型PDF书籍学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。LLM面试题合集大模型产品经理资源合集大模型项目实战合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询